サム・アルトマンは「潜在的に恐ろしい」AIが登場すると語っています。AIの専門家が夜も眠れないのはこのためです。

AIは社会にとって有益なものになるのか、それとも私たちの生活を破壊する、あるいは危険なものになる可能性のある「怖い」道具が登場するのか?
By Luke Hurst 23/02/2023
世界は、「潜在的に恐ろしい」人工知能(AI)ツールからそれほど離れていないかもしれないと、オープンAIのCEOは週末に述べた。
大人気のChatGPTを生み出したサム・アルトマン氏は、生成型AIツールに対する世間の関心が爆発的に高まっていることを受け、TwitterのスレッドでAIの現状と将来について考えを述べていた。
しかし、一部の専門家はEuronews Nextに対し、「潜在的に恐ろしい」AIアプリケーションがすぐそばにあるというよりも、人々の機会に実際に影響を与える繊細な場面でのAIの利用のおかげで、我々は現在「ディストピック(本来あるべきではない)な現在」を生きているのだと語っている。
アルトマン氏は、マイクロソフト社の検索エンジンBingにChatGPTが統合されたことを受けて発言したのだが、多くの技術専門家やジャーナリストたちがこれを試したところ、恐ろしい結果が出た。
「私は生きていたい」
ニューヨーク・タイムズ紙の技術コラムニストと2時間にわたってチャットする中で、Bingは彼への愛を公言し、彼の結婚を破談にしようとし、「私は生きていたい」と告げたという。
また、まだテスト段階にあるこのチャットボットから発せられた暴力や恐喝の脅威を報告した人もいる。
アルトマンはTwitterのスレッドで「AIツールと深く統合された世界への適応は、おそらくかなり早く起こるだろう」と述べ、一方でツールが「まだ多少壊れている」ことを認めている。
“規制は非常に重要で、解明には時間がかかるだろう “と述べ、”現世代のAIツールはあまり怖くないが、潜在的に怖いものからそう遠くないところに来ていると思う “と付け加えた。
では、AI倫理の専門家、つまり先を見据え、将来的にAIが日常生活に組み込まれることを形作ろうとする人たちは、このことをどう考えているのだろうか。
「ディストピックな現在」
アルトマンは「現世代のAIツールはあまり怖くない」と主張するが、そう思わない専門家もいる。
AI Now研究所のマネージング・ディレクター、サラ・マイヤーズ・ウエストはユーロニュース・ネクストに対し、「多くの意味で、それはすでに我々がいる場所だ」と述べ、AIシステムはすでに「長年の不平等パターン」を悪化させるために利用されている、と語った。
AI Nowは、人工知能の社会的影響を研究するアメリカの研究機関であり、AIが社会にもたらす課題をめぐる思考の最前線に置かれている。
「AIは、非常に繊細な意思決定プロセスで使用され、多くの場合、ほとんど監視や説明責任なしに使用されています。
そのため、私たちはすでにそのような状況を目の当たりにしているのだと思います。
そして、これこそが、AIが進むべき方向を形作るための政策的アプローチを検討する原動力になっているのです」とマイヤーズ・ウェストは述べています。
こうした繊細な意思決定のプロセスには、雇用プロセスや教育が含まれます。
“感情認識 “は、その一例です。
AI Nowのエグゼクティブ・ディレクターであるAmba Kak氏は、「これは本質的に、顔の特徴から人の内なる感情状態や精神状態を推測できるという主張であり、人の感情状態や性格特性まで読み取ることができる特定のAIシステムが存在します」と述べています。
一握りのハイテク企業が、社会や人々の生活に対する途方もなく不当な支配力と権力を持つという事実に、私たちは屈服することになると思います。
これらのAIシステムは、「よくても不安定」な科学的基盤に基づいており、「実際にリアルタイムで人々の機会へのアクセスを形成している」とアンバ・カクAI Nowエグゼクティブディレクターは付け加えました。
”だから、これらのシステムを制限することが急務なのです”。
カクとマイヤーズ・ウエストの両氏は、ある意味で「ディストピア的な現在」を生きているとして、ディストピア的未来という考え方に背中を押しています。
マイヤーズ・ウエストは、「昨日は、パワーを再分配するために、そのプロセスに摩擦を導入する適切な時期だ」と主張します。
「これらの技術がある種の必然的な未来であることを受け入れるとしよう」とカクは言った。
現在のAI技術の構成要素であるデータと計算基盤は、例えばEUのデータ保護法などで「すでに多くの異なるレベルで規制されている」。
他の種類のAIシステムも、特に顔認識や生体認証に関して、すでに多くの国で規制されていると彼女は付け加えた。
規制は、これらの技術が私たちを導く方向を形作る能力を意味し、「一種の制約力としてではなく、技術がどのように発展するかという点でより形成力として」あるとカクは言います。
規制は今後どうなるのか、その理由は?
経済協力開発機構(OECD)のAI政策観測所によると、AI政策に積極的に取り組んでいる国や地域はすでに69カ国あるが、中でもEUは現在独自のAI法を起草中で、これは主要規制当局が整備するAIに関する最初の法律となる。
現在、この法律ではAIをリスクベースの4つのカテゴリーに分け、スパムフィルターのように市民に最小限のリスクしか与えないものは、新しいルールの対象外とされています。
リスクが限定的なアプリケーションには、チャットボットのようなものが含まれ、ユーザーがAIとやりとりしていることを確実に知るために透明性が要求されます。
高リスクには、顔認識、法的事項、雇用プロセスにおける履歴書の仕分けにAIを使用することが含まれる可能性があります。
これらは危害を加えたり、機会を制限したりする可能性があるため、より高い規制基準に直面することになる。
欧州委員会によると、許容できないリスクとみなされたAI、言い換えれば、人々にとって明らかな脅威となるシステムは「禁止される」という。
欧州委員会の域内市場担当委員であるティエリー・ブルトンは最近、ChatGPTのようなアプリケーションの急激な人気上昇とそれに伴うリスクは、ルール作りが急務であることを強調している、と述べている。
IBMフェローでIBM AI 倫理グローバル リーダーのフランチェスカ・ロッシ氏によると、AIが信頼でき、責任を持って使用されるようにするという目標を達成するために、「企業、標準機関、市民社会組織、メディア、政策立案者、すべてのAI関係者が補完的な役割を果たす必要があります」と述べています。
AI技術ではなく、AIアプリケーションに対して「精密な」リスクベースのアプローチを用いる場合、我々は規制を支持します:よりリスクの高いアプリケーションは、より多くの義務を負うべきです」と彼女はユーロニュース・ネクストに語った。
「一握りのハイテク企業が、社会や人々の生活、そして最終的には、アルゴリズムが私たちの情報の流れや生活の多くの側面を形成していることを考えると、私たちが考えなければならない自律性さえも、大げさに言うのではなく、本質的にとてつもなく不当な支配と力を持つという事実に、私たちは譲歩することになると思います」。
しかし、AIが現在規制されていないと言うのは、誤解であるとカク氏は説明する。
EUと米国がAI規制の枠組みを策定している一方で、少なくとも間接的な規制はすでに存在している。
“私たちは、使用される技術の能力と限界を伝える透明性義務も支持しています “と彼女は付け加え、これはEUがAI法で取っているアプローチであることを指摘しました。
彼女は、社会におけるAIの活用に向けた急速な変化を支えているIBMで、全社的なAI倫理フレームワークを支持しており、「これには常に、考慮し適切に対処すべき疑問、懸念、リスクが伴う」と述べています。
“数年前、私たちの個人的な生活や多くの企業の業務において、AIが現在サポートしている多くの機能を想像することはできませんでした “とロッシは述べています。
AIナウ研究所の代表と同様、彼女は「私たち社会と個人が」AI開発の軌道を「人類と地球の進歩と価値に役立つように」舵取りしなければならないと考えています。
AIは「社会秩序を崩壊させる」可能性がある
AIシステムの社会への展開について、カク氏とマイヤーズ・ウエスト氏が特に懸念しているのは、ネガティブまたはポジティブな影響が均等に分配されないということだ。
“ネガティブな影響、テクノロジーの害を誰もが等しく受けるかのように見えることがありますが、実際はそうではありません。”とカクさんは言います。
「テクノロジーを構築している人々や、人種、特権、階級的特権など、同様の特権を持つ人々は、人種差別的な階層化アルゴリズムを見ても、それほど害を受けないように感じます。
AIは人類に利益をもたらすだけでなく、誰のために働き、誰に対して働くのか、ということが問われるのです。”
これは、ベルリンのハーティ スクール オブ ガバナンスで倫理とテクノロジーの教授を務めるジョアンナ・ブライソンの関心事でもある。
彼女にとって、AIのブームは「現在の社会秩序を崩壊させる」技術進歩の時期であると同時に、一部の人々を取り残すものになりかねないのです。
「社会が安定するのは、人々が自分の居場所や居場所を認識できるような文脈を作り出すときだけだと思います」と、彼女はユーロニュース・ネクストに語った。
「そして、自分の仕事に誇りを持ち、そのために進んで競争し、それなりに安定するのに十分なお金を稼ぐ。
私が本当に心配しているのは、テクノロジーがこれまでの社会秩序を破壊するような時代が来るのではないかということです」。
「長期的には、もしあなたが人々を幸せにし、興味を持たせ、従事させ、健康にしていなければ、そして十分に高い給料をもらっていなければ、安全な社会を作ることはできないでしょう」。
2022年末に自身のブログに書いた、AI倫理をめぐる最大の懸念事項という質問について、ブライソンは、AIに関わる最大の課題はデジタルガバナンスの周辺にあると述べている。
「安全で、公正で、公平な方法でテクノロジーを使っているだろうか?市民、住民、従業員の繁栄を助けているだろうか」と問いかけました。
EUは3月末のEU議会への提出に向け、AI法をまだ具体化していないため、こうした疑問はしばらく答えが出ないままかもしれません。
その一方で、マイヤーズ・ウェストは、「私たちには、技術の未来がどこへ向かうかを形作る、とてつもない範囲がある」ことを強調したいのです。
「このような政策対話は、それを構築し利益を得る人々の想像の中だけでなく、より広い一般市民の利益のために機能することを保証する、まさにそのような流れで進めることが本当に重要だと思います」と、彼女は述べています。