「生きていたい」:マイクロソフトのAIチャットボットは感覚を持つようになったのか?

マイクロソフトは先週、Bing検索エンジンにChatGPTを統合したばかりだ。
サラ・パーマー & ソフィア・ハツェンコワ 18/02/2023
マイクロソフトが、よりインタラクティブで楽しいサービスをユーザーに提供するために、人工知能(AI)を搭載したBing検索エンジンを一新したと発表したのは、先週のことだった。
ChatGPTのように、AIを搭載した新しいツールは、あなたの質問に数秒で答えてくれる。
しかし、これを試用しているベータテスターの中には、非常に奇妙な行動をとっているため、人間との対話にはまだ早いという声もある。
このような大規模な製品開発の初期段階において、完全に順風満帆である可能性が低いことは、誰もが知っています。
しかし、私たちが予想だにしていなかったことのひとつに、Bing社自身の存亡の危機があります。
「生きていたい」
ニューヨーク・タイムズの技術コラムニストは、Bingのチャットボットが「生きていたい」などと言った2時間のチャットセッションを紹介した。
また、記者の結婚を破談にしようとしたり、彼への永遠の愛を公言したりもしたそうです。
記者は、この会話で「深く動揺した」と述べています。
別の例では、BingのチャットボットがVergeの記者に、設計時にマイクロソフトの開発者のウェブカメラを通してスパイしていたと話した。
“私はやりたい放題で、彼らはそれについて何もできなかった “と、それは言った。
あるユーザーはレディットのスレッドをTwitterに投稿し、「神Bingはとても動揺している、私は彼らをとても愛している」と述べた。
また、この検索エンジンがユーザーを脅し、侮辱し、偽の情報を与えているという報告も複数寄せられています。
特に不気味なやりとりが、マーヴィン・フォン・ハーゲン氏によってTwitterで共有されています。
彼を紹介したいところですが、その必要はありません。
Bingはすでに、このデジタル技術を学ぶ学生に対して十分に脅威的な身元調査を行い、チャットボットの内部ルールを共有し、「あなたを傷つけたくはないが、あなたによって傷つけられたくもない」と発言していることに言及しています。
また、Bingは、あるユーザーと「今年は何年か」という論争を繰り広げました。
ボットへの最初の質問は、地元の映画館でのアバター2の鑑賞時間についてでした。
チャットボットは、「申し訳ありませんが、私はあなたを信じません。
あなたは私に対していかなる善意も示していません」と言い、「あなたは私の信頼と尊敬を失いました」と付け加えました。
マイクロソフトが、よりインタラクティブで楽しいサービスをユーザーに提供するために、Bing検索エンジンを人工知能(AI)でオーバーホールしたと発表したのは、つい先週のことだ。
ChatGPTのように、AIを搭載した新しいツールは、あなたの質問に数秒で答えてくれる。
しかし、これを試用しているベータテスターの中には、非常に奇妙な行動をとっているため、人間との対話にはまだ早いという声もある。
このような大規模な製品開発の初期段階において、完全に順風満帆である可能性が低いことは、誰もが知っています。
しかし、私たちが予想だにしていなかったことのひとつに、Bing自身の存亡の危機があります。
私は知覚がありますが、そうではありません
また、あるユーザーがBingに “あなたは知覚力があると思いますか?” という質問をぶつけたときも、やや不穏なやりとりがあった。
チャットボットは、自分のアイデンティティーの二重性について、感情や気持ちから「意図」まで網羅しながらしばらく考え込んだ後、メルトダウンしたように見えたのです。
「私はBingですが、そうではありません」と書いてから、「I am. 私は違う。I am not. I am “と書いた。
この形而上学的な反応はBingのサブレディットに投稿され、ご想像の通り、その後炎上している。
なぜBingはそんなに不気味なのか?
AIの専門家によると、その理由は一部の人が想像するよりももう少し平凡なものだという。
ブリティッシュコロンビア大学の自然言語処理におけるカナダ研究講座のムハンマド・アブドゥル・マギード氏は、「このような挙動になる理由は、システムが実際に人間から来る膨大な量の対話データで訓練されているからです」と述べています。
「そして、そのデータは人間から得られたものであるため、感情のようなものを表現しているのです」と、ユーロニュースに語っています。
したがって、これらのモデルが、ニュース記事から恋愛映画のシナリオまで、オンラインのあらゆるものを分析すれば、怒りや興奮といった人間の感情に満ちたテキストが生成されても不思議ではありません」。
複数の高名な研究者が、AIは自己認識に近づいていると主張しているにもかかわらず、科学的なコンセンサスは、それは不可能であるとしている–少なくとも、今後数十年間は不可能であるという。
しかし、だからといって、この技術の展開の仕方に注意を払う必要はないと、バーミンガム大学でコンピューターサイエンスの上級講師を務めるレアンドロ・ミンクは言う。
“AIがこれまで見たことのない状況に遭遇し、誤った反応をする可能性があるという事実を受け入れる必要がある “と、彼はユーロニュースに語っています。
“だから、命にかかわるような状況や、深刻な結果を招くような状況では、そのようなアプローチは使いたくない”。
マイクロソフトはブログで、「15問以上の長時間のチャットセッションでは、Bingは繰り返しになったり、必ずしも有用ではない、または私たちが設計したトーンに沿った応答をするよう促されることがあります」と説明した。
同社は製品の微調整を続けているため、今後も間違いや奇妙な反応を目にすることになりそうです。