生成AIは間違うの?アルミのことを聞いたら嘘だった!AIは信用できない?

解説

アルミの材質をAI(ChatGPTやGemini)のプロンプトで調べたら間違っていたとお客さんから連絡がありました。生成AIは間違います。嘘をつくと言われれば、そのとおりです。なぜなら、生成AIは主として、インターネットの情報を基に回答しているからです

それでも、ネット検索で調べるよりAIを使った方がはるかに効率的ですし、概ね正しい回答がほとんどですから、どんどん利用してください。ただし、間違っているリスクがあることだけ頭の片隅に置いて頂ければ幸いです。それでは、少し難しいですが、詳しく解説します。

(概要)生成AIが間違える理由

ChatGPTやGemini、claudeなどの大規模言語モデル(LLM)の情報の入手先は、その多くをインターネットの情報から入手しています。

まず、モデルをつくる段階で、インターネットの情報を学習させて、生成AIの基礎をつくって公開しています。一部、専門書を読ませて学習させてますが、コスト問題から圧倒的に多いのがインターネット経由の無料の情報です。

この後、原理を詳しく解説しますが、簡単におわかり頂けるように、誤解を恐れずに説明しますが、生成AIは、その情報をもとに、情報をコンピューターがわかる二進法の数字に置き換えて計算して回答を生成しますが、評価やファクトチェックはしていません

よって、インターネットの情報が、間違っていたり、嘘であれば、そのまま回答することもあります。後述しますが、間違いや嘘が社会的に影響が多い一部のジャンルだけは人間によるチェックをしています。

それでは、少しむずかしくなりますが、生成AIの計算(思考)原理と一部のジャンルの人間による操作を詳しく説明します。

生成AIの原理:トランスフォーマー

ChatGPTは、「Chat Generative Pre-trained Transformer」の略です。「訓練されてチャットを生成するトランスフォーマー」ということになります。このトランスフォーマーですが、2017年にアメリカのコーネル大学でこの論文が発表されて世に知られるようになりました。ChatGPTはトランスフォーマーという名前がついてますが、まさしく、この論文の原理で動いています。

論文「Attention Is All You Need」
https://arxiv.org/abs/1706.03762

論文を書いたのは、Googleのエンジニアがほとんどで、大規模言語モデルである生成AIはGoogleによって発明されたといっても過言ではありません。従って、Google検索で表示されるページランキングはロボットを使っていますが、今はこのトランスフォーマーの原理で動いています。AIは、今は、このトランスフォーマーとなっています。

論文を読んで頂ければわかりますが、論文では、アテンション(Attention)がいかに重要かということが説明されています。このアテンションがトランスフォーマーの核心部分であり、AIの革新でもあるわけです。

AIという言葉は昔からありました。例えば、短い文章を翻訳する場合や理解させる場合であれば昔のAIは使えてましたが、長文になったり、ネット上の長い文章を理解させたり学習させるのは不可能でした。そこで、この問題を解決したのが、このトランスフォーマーモデルのアテンションという方法です。

生成AIは、簡単に言うと、言葉を二進法で数字にしたあと、ベクトルと行列(線形代数)の演算をして確率を出して回答を生成しています。AIは考えてないのです。掛け算の演算をして、その次にくるトークン(単語)がくる確率を計算して、その確率に基づいて文章を生成します。まず、40億以上あるインターネットの情報をあつめて、言葉をトークンという単位にわけて、それを数次元の意味空間ベクトルに配置してベクトル/行列演算をして、学習します。そのあと、再度ネット検索が必要な場合は都度検索(ChatGPTならBing、GeminiならGoogle検索)して回答を生成します。ファクトチェックの機構はありません学習や検索で間違いの情報であれば、そのまま回答も間違うことになります。

ネットの長文を理解や学習することができるようになったのが、このアテンションという機構です。この論文が発表されてから、ChatGPTがこのアテンション機構を採用して発表に至って生成AIブームとなりました。アテンションとは、簡単にいうと長文を丸ごとベクトル/行列演算する方法です。膨大な計算になります。この計算ができるようになったのは、ゲームでキャラクターの動きであるポリゴン計算をさせていたGPUというチップの高性能化も背景にあります。膨大な行列計算をさせるので、CPUではコストがあいません。GPUは低コストのチップで、単純な行列計算に向いています。

この論文を読んで頂いてもわかりますが、ファクトチェックなんてどこにも書いていません。生成AIは、ベクトル/行列演算をして学習して、答えを出しています。単純な計算で、数次元のベクトル空間の配置で意味の分類をわけて、その組み合わせと確率で回答してるだけです。数億の掛け算がメインの処理です。ベクトルの組み合わせで、結果として、あたかも生成AIが考えているように見えてるだけです。したがって、いいとか悪いとかの評価や判断、思考はできないし、していません

ファクトチェック

生成AIはファクトチェックをしていないと書きましたが、一部、社会的に影響の大きなジャンルについては、ファクトチェックをしています。その一部のジャンルとは、YMYL(Your Money Your Life)という領域です。YMYLはGoogle検索で採用されていますが、株価など金融関係や医療分野などの情報は、Google検索結果や生成AIの学習でも人間がファクトチェックをしています。生成AIも学習の段階や案件都度の検索でYMYLだけチェックしてるというのが実情です。

全世界で、たとえば、Google Searchの関連チームの約1万人規模がチェックに携わっているわけですが、その対象は、ネット世界全体のチェックすべきコンテンツの数は天文学的数字です。すべてのジャンルをチェックすることはできませんし、ネットは日々更新されてますが、リアルタイムですべてをチェックすることは不可能です。金融関係や医療分野などと事件など社会的影響が大きな分野だけ人間がチェックしています。アルミニウム関連は、多くの場合、チェックされていないのが実態です。

追伸:論文「Attention Is All You Need」の論文全文のPDFです。興味のある方は読んでみてください。これがわかれば、生成AIは理解したことになります。

https://arxiv.org/pdf/1706.03762

ベクトル/行列演算をしてるだけと書きましたが、演算して論文にでてくるSOFTMAX関数でスケーリングをしてます。このSOFTMAX関数の分子のルートdkというのがこのアテンションの核心部分になっています。試行錯誤の末、この関数でスケーリングしたら、「たまたま」うまくいったらしいです。ルートdkをいろいろ試したらしいです。アテンション=SOFTMAX関数の公式が肝の部分になります。

コメント