EUの役員は、すべてのAIによって生成されたコンテンツにラベルを付けることを望んでいます

欧州連合(EU)の関係者は、OpenAIのChatGPTのような人工知能(AI)ツールをより透明にするための追加措置について議論しています。

6月5日、欧州委員会副委員長のベラ・ヨウロヴァ氏は、偽情報と戦うために、生成型AIツールを展開する企業がコンテンツにラベルを付けるべきだと語りました。

「AI生成の偽情報を拡散する可能性のあるサービスを提供する署名者は、そのようなコンテンツを認識する技術を導入し、ユーザーに明確にラベルを付ける必要があります。」

ヨウロヴァ氏は、MicrosoftのBingchatやGoogleのBardなど、サービスに生成型AIを統合する企業も、悪意のある行為者が偽情報目的で利用できないように「セーフガード」を設ける必要があると述べました。

EUは、2018年に「偽情報に関する行動規範」を作成し、テック業界のプレーヤーが自主的に規制基準を設けて偽情報と戦うための合意とツールの両方として機能しています。

関連記事: OpenAI、日本の規制当局からデータ収集に警告を受ける

GoogleやMicrosoft、Meta Platformsを含む大手テック企業は、すでにEUの行動規範に署名しています。ヨウロヴァ氏は、これらの企業やその他の企業が、AIに関する新しいセーフガードについての報告を今後の7月に行う必要があると述べました。

また、ヨウロヴァ氏は、先週の記者会見の1週間前にTwitterが行動規範から離脱したことに触れ、EU法に対する同社の行動とコンプライアンスが厳しく急速に監視されることになると強調しました。

「行動規範を離脱することで、Twitterは多くの注目を集め、同社の行動とEU法へのコンプライアンスが厳密にかつ緊急に監視されることになるでしょう。」

これらの副委員長の発言は、EUが公共の利用とそれを展開する企業のための包括的なAIガイドラインであるEU AI法を準備しているということに関連しています。

公式法律が2〜3年以内に発効する予定であるにもかかわらず、欧州の関係者は、その間に生成型AI開発者のための自主規制行動規範を策定するように呼びかけています。

マガジン: BitCulture: Solana上のファインアート、AI音楽、ポッドキャスト+書評