「OpenAIは、ChatGPT-4がコンテンツのモデレーション時間を数か月から数時間に短縮する」と述べています
OpenAI states that ChatGPT-4 can reduce content moderation time from months to hours.
OpenAIは、ChatGPTの開発元であり、人工知能(AI)をコンテンツモデレーションに活用し、困難なタスクの処理を迅速化することで、ソーシャルメディアプラットフォームの業務効率を向上させる可能性を提唱しています。
同社によれば、最新のGPT-4 AIモデルは、コンテンツモデレーションのタイムラインを数カ月から数時間に大幅に短縮し、ラベリングの一貫性を向上させることができると述べています。
コンテンツのモデレーションは、Facebookの親会社であるMetaなどのソーシャルメディア企業にとって困難であり、数多くのモデレーターの協力が必要です。これは、ユーザーが児童ポルノや過激な画像などの有害なコンテンツにアクセスできないようにするためです。
「(コンテンツモデレーションの)プロセスは本質的に遅く、人間のモデレーターに精神的なストレスを与える可能性があります。このシステムでは、コンテンツポリシーの開発とカスタマイズのプロセスが数カ月から数時間に短縮されます。」
声明によると、OpenAIはこれらの課題に取り組むために、大規模な言語モデル(LLM)の活用を積極的に調査しています。GPT-4などの言語モデルは、ポリシーガイドラインに基づいてモデレーションの意思決定を行うことができるため、コンテンツモデレーションに適しています。
ChatGPT-4の予測は、広範なデータの処理に対して小さなモデルを洗練させることができます。この概念により、ラベルの一貫性、迅速なフィードバックループ、精神的な負担の軽減など、さまざまな方法でコンテンツモデレーションが改善されます。
声明では、OpenAIは現在、GPT-4の予測の正確性を向上させるために取り組んでいます。検討されている方法の一つは、連想思考や自己批判の統合です。さらに、憲法AIからインスピレーションを得て、未知のリスクを特定する方法について実験しています。
関連記事: 中国の新しいAI規制が効果を発揮し始める
OpenAIの目標は、広範な損害の説明に基づいて潜在的に有害なコンテンツを検出するためにモデルを活用することです。これらの取り組みから得られた知見は、現行のコンテンツポリシーの改善や、未開拓のリスク領域における新たなポリシーの策定に役立つでしょう。
8月15日、OpenAIのCEOであるSam Altmanは、同社がユーザー生成データを使用してAIモデルをトレーニングすることを避けていると明言しました。
この記事をNFTとして収集し、暗号通貨の分野での独立したジャーナリズムをサポートするために、歴史的な瞬間を保存しましょう。
Magazine: AI Eye: AppleがポケットAIを開発、ディープフェイクの音楽契約、催眠術のGPT-4