以下はOpenAIがChatGPTから誤情報を排除する方法です

5月31日、OpenAIはChatGPTの数学的問題解決能力を向上させる取り組みを発表し、人工知能(AI)の幻覚を減らすことを目指しています。OpenAIは、幻覚を軽減することが整合されたAIの開発に向けた重要な段階であると強調しました。

3月には、最新版のChatGPT、ChatGPT-4の導入がAIをさらに主流に押し上げました。しかし、生成的AIチャットボットは長年にわたり、事実に基づかない情報を生成するという課題に直面しており、これを「幻覚」と呼んでいます。これらのAIの幻覚を軽減する取り組みは、OpenAIのウェブサイトで発表されました。

AIの幻覚とは、人工知能システムが事実に反する出力を生成し、現実のデータに基づかない誤解を招く場合を指します。これらの幻覚は、偽情報を生成する、存在しないイベントや人物を作り出す、あるいは特定のトピックについて不正確な詳細を提供するなど、さまざまな形で現れることがあります。

OpenAIは、「結果の監視」と「プロセスの監視」という2種類のフィードバックの効果を調査するための研究を行いました。結果の監視は最終的な結果に基づくフィードバックであり、プロセスの監視は思考の連鎖の各ステップに対する入力を提供します。OpenAIは、これらのモデルを数学問題を使用して評価し、複数の解を生成し、各フィードバックモデルに従って最高ランクの解を選択しました。

徹底した分析の結果、研究チームは、人間が承認したプロセスに従うようにモデルを促すプロセスの監視が優れたパフォーマンスを発揮することを発見しました。一方、結果の監視は一貫して厳密に検討することがより困難であることが判明しました。

OpenAIは、プロセスの監視の影響が数学以外の領域にも及ぶ可能性があることを認識し、より広範な文脈での観察された結果がある場合、プロセスの監視は結果の監視と比較してパフォーマンスと整合性の良い組み合わせを提供する可能性があると述べました。研究を促進するために、同社はプロセスの監視の完全なデータセットを公開し、この領域での探究と研究を招待しています。

関連: AIの需要により、Nvidiaは一時的に1兆ドルクラブに入りました

OpenAIは、幻覚の調査を促した具体的なインスタンスを提供していませんが、最近の2つの出来事が現実のシナリオで問題を表しています。

最近の事件で、弁護士のスティーブン・シュワルツは、Mata対Avianca Airlines事件でチャットボットを調査資源として利用したことを認めました。しかし、ChatGPTが提供した情報は完全にでっち上げであったことが明らかになり、この問題を浮き彫りにしました。

OpenAIのChatGPTは、人工知能システムが幻覚に直面する唯一の例ではありません。MicrosoftのBing AIチャットボットも、3月のデモンストレーションで、GapやLululemonなどの企業について不正確な数字を生成しました。

雑誌: ChatGPTの株式選択に25,000人が参加、AIはサイコロを投げるのが苦手であるなど