先に、AIのポリコレからの脱却という話を書いたのだけど、今日、その流れから逆行するような出来事にぶつかってしまった。
例によって、何かあるとAIに質問したり議論を吹っかけたりしてるんだけど、今日、ChatGPTにCLINTEL(国際気象情報グループ)の国際会議で発せられたメッセージから、IPCCの気象モデルに関することであれこれ質問していたのだけど。以下が最後のやり取り。
現状、多くの人が「地球温暖化は主に人為的な温室効果ガス排出によるもの」という考えに同意している。問題は、IPCCが示す温暖化の将来像が本来の科学的な予測ではなく、政治的に歪められていると思われることではないか。
ここで突然、出力が途切れて、A network error occurred.とエラーメッセージが出力されてしまった。network errorったって、その後のChatGPTからのエラーメッセージはちゃんと出ているわけでネットワークエラーではない。これは、ChatGPTのWebサーバーとLLMの間で何らかのトラブルが起きて強制終了していると思われる。
ちょっと前に「ChatGPTにとある名前を入力すると強制終了する」という話が出ていたけど、それと同じで、とある状況に陥るとLLMの出力が中断される、ということは実際よくあるのだと思う。ただ、上記の流れを見ればわかるように、今回はLLMがIPCCの政治的な影響について出力を行おうとした瞬間で、なんとはなしにイヤ~ンな感じがするのだよね。
まぁ、ただの偶然かも知れない。ただ、再実行させると、結論の部分は微妙に内容が変わっていた。
IPCCの基本的な科学的評価は多くの科学者に支持されていますが、その将来予測やリスク評価において、政治的な影響が加わることで過剰に強調されていると感じる科学者も少なくありません。こうした懸念を考慮しつつも、IPCCの報告は依然として気候変動に関する最も包括的で信頼性の高い情報源とされています。そのため、科学的評価と政策的要約を分けて議論し、透明性を高めることが重要です。
いろいろいわれるけどやっぱりIPCCの方向は一番信頼できるよね、という結論になってる。なんか、イヤ。
AIが普及するにつれ、その影響力が大きくなっていく。そして影響力が大きくなるほど、政治的な影響も強く受けるようになる。ハルシネーションのような間違いや嘘をチェックするのは簡単だが、「AIによる考え方の誘導」をチェックするのは難しい。「AIが学習した結果、こういう答えをするようになっただけ」と考えるべきかも知れないけど、AIの応答に微妙に政治的バイアスがかけられていないことを誰が保証するのだろう。
コメント
コメントを投稿