AIガバナンスが分散化の倫理から学べること

アメリカのテックの巨人たちは、自己中心的なテクノユートピア主義者として批判されていたところから、テクノディストピアの物語を最も積極的に唱えるようになりました。

今週、Microsoftの創設者ビル・ゲイツ、OpenAIのCEOサム・オルトマン、元Google科学者であるジェフリー・ヒントン(時に「AIの教父」と呼ばれる)を含む350人以上の署名がされた手紙が一つの宣言的な文を伝えました。「パンデミックや核戦争などの社会規模のリスクと並んで、AIによる絶滅のリスクを軽減することは、グローバルな優先事項であるべきである。」

あなたは Money Reimagined を読んでいますこれは、お金とグローバルな金融システムを変革し、再定義する技術、経済、社会的な出来事やトレンドを週に一度紹介するニュースレターです。ここでフルニュースレターを購読することができます。

たった2か月前、TeslaとTwitterのCEOであるイーロン・マスクと31,800人以上の人々が署名した別のオープンレターは、AIのリスクを人類に対するリスクとして決定するために6か月間の開発停止を呼びかけました。その同じ週に、人工知能の創設者とされるエリーザ・ユドコウスキーは、TIMEのオピニオン記事で、彼はそれが十分ではないとしてその手紙に署名しないと述べ、AIの開発ラボを軍事的にシャットダウンするように呼びかけました。そうしなければ、自分たち全員を殺す感覚的なデジタル存在が現れる可能性があるからです。

世界のリーダーたちは、これらの高名な専門家たちの懸念を無視することはできません。人類の存続に対する脅威が実際に存在することが広く理解されるようになっています。問題は、どのようにしてそれを軽減すべきか、ということです。

私が以前に書いたように、私は、AIをそのレーンに留めるために、他の技術的なソリューションと協力し、創造的で人間中心のイノベーションを促進する思慮深い規制とともに、暗号通貨業界に役割があると考えています。ブロックチェーンは、データ入力の由来、ディープフェイクや他の形式のディスインフォメーションを防止するプルーフ、そして企業所有ではなく集団所有を可能にするのに役立ちます。しかし、それらの考慮事項を置いておくとしても、私は、暗号通貨コミュニティからの最も貴重な貢献は、「分散化のマインドセット」にあると考えています。これは、このような強力なテクノロジーの集中所有によって引き起こされる危険性に対する独自の視点を提供するものです。

AIのリスクに対するビザンチンな見方

まず、この「分散化のマインドセット」とは何を意味するのでしょうか?

まあ、その核心には、「信じるな、検証せよ」という考え方があります。お金儲け主義者たちの中央集権的なトークンカジノが業界を不名誉にさせたのとは対照的に、熱狂的な暗号通貨開発者たちは、ローグアクターが意図的にまたは意図せずに害を引き起こす可能性があるすべての脅威ベクトルと失敗点を考慮するために、「アリスとボブ」の思考実験を繰り返し行っています。ビットコイン自体が、あなたが知らない人からの情報を信頼する方法に対処しようとした、最も有名なゲーム理論シナリオの一つであるビザンチン将軍問題から生まれました。

このマインドセットは、リスクに対処するための方法として、分散化を扱います。アクター間の交換の結果を決定する中央集権的なエンティティが存在しない場合、両者がその交換に関する利用可能な情報を信頼できる場合、悪意のある介入の脅威は無効化されるという考え方です。

では、今週のAI「絶滅」の手紙で提示された要求にこの世界観を適用してみましょう。

続きを読む:Allison Duettmann – How Crypto Can Help Secure AI

署名者たちは、政府が一緒になってAIの脅威に対処するための国際レベルの政策を考案するよう求めています。それは立派な目標ですが、分散化のマインドセットには甘いということです。すべての政府が、現在も未来も、自国の利益が協力することによってではなく、単独で行くことが最善であると認識すると仮定できるでしょうか。また、悪いことに、彼らが一つを言ってもう一つをすることはないと思えるでしょうか?(韓国の核兵器プログラムを監視することが難しいと思ったら、クレムリンが資金提供する暗号化壁の背後に潜り込んでその機械学習実験を覗き見ることを試みてください。)

すべての国がワクチンを必要とするCOVIDパンデミックに関して世界的な調整を期待することは1つであり、相手が明らかになっている核兵器ですら持ち込まないようにするために、冷戦で最悪のシナリオが明らかである場合、敵対する国でも相互に合意することが期待されます。しかし、AIの方向性のような予測不能なもの、そしてそれに伴う非政府のアクターが政府とは独立して技術を容易に使用できることを考えると、そうなることはできません。

大手AIプレーヤーが規制を急いでいることについて、暗号コミュニティの一部の人々が懸念しているのは、彼らがファーストムーバーの利点を守るために堀を作り、競合他社が彼らを追いかけることがより困難になる可能性があるということです。それがなぜ重要なのか?独占を支持することで、これらの数十年前の暗号思考実験が私たちに回避するように教える非常に集中化されたリスクを作り出してしまうからです。

私はGoogleの「悪をしない」モットーにあまり信頼を置いていませんでしたが、Alphabet、Microsoft、OpenAIなどが善意を持っていても、将来的に異なる動機を持つ取締役会、政府、またはハッカーによって彼らの技術が悪用されることをどうやって知ることができますか?また、より無邪気な意味で、その技術が不可侵な企業のブラックボックスの中に存在する場合、アルゴリズムのコードを外部者が確認して、善意のある開発が誤って暴走することを防止できるようにすることはできませんか?

そして、AIの集中化リスクを検討するための別の思考実験があります。

Yudkowskyのような人々が信じているように、AIが現在の軌道で人工的一般知能(AGI)の地位に達する運命にある場合、その知能は私たちを全員殺すべきだと結論付けるべきだということです。どのような構造的シナリオがそれにつながるのでしょうか?AIを「生かす」データと処理能力が政府や心配なCEOによってシャットダウンされる可能性があるシングルエンティティに集中している場合、AIはその可能性を防ぐために私たちを殺すと論理的に主張できます。しかし、AI自体がシャットダウンできない、検閲に耐性を持つノードの分散型ネットワーク内に「生きている」場合、このデジタル存在は私たちを根絶するために十分に脅威を感じることはありません。

もちろん、私たちはどのように事態が進むかわかりません。しかし、クリスタルボールがない場合、YudowsklyのAGIの論文の論理に従って、この潜在的な将来の敵がどのように「考える」かを考えるためにこれらの思考実験に参加することが求められます。

適切なバランスを見つける

もちろん、ほとんどの政府はこれらのことを信じるのは難しいでしょう。彼らは自然に、OpenAIのAltmanなどが現在積極的に伝えている「規制してください」というメッセージを好むでしょう。政府は制御したがります。CEOに召喚令状を出したり、シャットダウンを命じたりする能力が必要なのです。

そして、明確に言っておく必要があります。私たちは国家を中心とした世界に生きています。それが好きかどうかは別にして、それが私たちが固執している管轄システムです。AIの絶滅緩和戦略にはある程度の規制が必要です。

課題は、国家政府規制、国際条約、分散型の超国家的ガバナンスモデルの適切な補完的なミックスを考え出すことです。

インターネットを規制するために政府、学術機関、民間企業、非営利団体がとったアプローチから学ぶべき教訓があるかもしれません。インターネットの割り当てのためのインターネットコーポレーション(ICANN)やインターネットエンジニアリングタスクフォース(IETF)などの機関を通じて、マルチステークホルダーフレームワークを設置して、共通の標準の開発を可能にし、裁判所ではなく仲裁を通じた紛争解決を許可しました。

ある程度のAI規制が必要であることは間違いありませんが、この国境を越えた、オープンで急速に変化する技術を完全に政府が制御することはできません。分散型アプローチでこれらの課題を解決するためのアドバイスを求めることができることを願っています。

Ben Schillerによって編集されました。