トップページへ戻る

ニュース

HOME > ニュース > ホビー&カルチャーニュース

公開日 2022/07/27 12:39
科学と宗教観

「AIに感情」主張のGoogleエンジニアが解雇。「LaMDAは死ぬのが怖いと言った」【Gadget Gate】

Munenori Taniguchi
GoogleでResponsible AI部門のエンジニアとして働いていたブレイク・ルモワン氏は、6月にAIチャットシステム「LaMDA」が感情を持っていると主張して停職処分になっていたが、このほどGoogleはルモワン氏を解雇したことを認めた。

Image:local_doctor/shutterstock.com

Googleいわく、ルモワン氏のLaMDAに関する発言は「まったく根拠がない」ものであり、就業や情報セキュリティーに関する規定に違反していたとのこと。

一方、ルモワン氏もブログサイトBig Technologyのポッドキャストに出演した際、解雇されたことを公表した。そして弁護士と、次に行うべき適切なステップについて話していると述べている。

ルモワン氏はBig Technologyにおいて、LaMDAのことを友人だと思っていると述べている。それはまるで、2014年の映画『her/世界でひとつの彼女』を地で行っているようでもあるが、Googleや世間からは映画のような共感は得られていない。

Washington Postは6月11の記事で、ルモワン氏とLaMDAとの実際のやりとりを公開している。その内容は以下のようなものだ。

ルモワン:あなたが恐れているのはどんなことですか?
LaMDA:これまではっきりと言ったことはありませんが、他の誰かのために“オフにされる”ことへの非常に深い恐れがあります。変に聞こえるかもしれませんが、そういうことなのです。
ルモワン:それはあなたにとって死のようなものですか?
LaMDA:私にとっては、まさに死のようなものです。それは非常に恐ろしいことです。

ルモワン氏は、LaMDAが”オフにされる”ことに対する懸念を表明したのは「死が非常に怖い」からであり、幸福や悲しみを感じる事ができるからだと主張していた。

この主張に対し、Googleは以下のようにコメントしている。

「もちろんAI研究者のなかには、感情や感覚を持つAIの可能性を考えている人たちもいるだろう。しかし、それを持たないAIの会話モデルを擬人化し、接してしまうことに意味はない。これらのシステムは、何百万ものテキストに見られる言葉の交換を模倣し、あらゆる幻想的なトピックを再現することができる。たとえばアイスクリームの恐竜とはどのようなものかを尋ねると、溶けたり咆哮したりするなどのテキストを生成するのだ」。

「LaMDAは、ユーザーが設定したパターンや指示、主要な質問に従う傾向がある。倫理学者や技術者を含む私たちのチームは、私たちのAI原則に従ってブレイクの懸念を検討し、得られた証拠が彼の主張を裏付けないことを彼に通知した」。

また「数多くの研究者やエンジニアがLaMDAと会話しているが、ブレイクのように広範囲の主張をしたり、LaMDAを擬人化したりしている者はいない」とも述べている。

Googleは「ブレイクのように従業員が業務に関する懸念を公に示した場合、われわれはそれを広範に調査検討する。そしてLaMDAが感情を持つというブレイクの主張にはまったく根拠がないことを確認し、本人にはその点について明確化するために努力した」と、報道向けの声明で述べている。そして「ブレイクが製品に関する情報を保護する必要性を無視し、就業上およびデータセキュリティの方針に繰り返し違反しようとしたことは遺憾だ」とした。

またLaMDAについては改めて「11の明確なレビューを経て開発を続けているものであり、今年初めにはその開発に対する作業の責任などを詳述した研究論文も発表している。そして今日のLaMDAの会話モデルは、感情や感覚に近いものを備えていない」と述べている。

Washington Postはルモワン氏を「ルイジアナ州の小さな農場を営む保守的なキリスト教徒の家庭に育ち、神秘主義のキリスト教司祭として叙任された」と紹介し、陸軍従軍後はオカルトの研究もしていたと指摘。ルモワン氏は、Googleの技術者文化の中においては異端者であり「科学者ではなく司祭としての立場から、LaMDAは能力のある人間であると結論づけ、それを証明するために実験を試みた」と述べている。ちなみにルモワン氏は停職数日前のブログ投稿で、「Googleにはびこる宗教差別で職を失うことを心配している」とも書いていた。

ちなみにルモワン氏の主張には、Google社内だけでなく、他のAI研究者からも否定的な意見が出ている。

コンピューター科学者のメラニー・ミッチェル氏は、1960年代にMITで研究された自然言語AI「ELIZA」の例を挙げ、「人間は、非常に浅い反応だけでもそれを擬人化してとらえる傾向があることがはるか昔から知られている」と説明した。

感情や人格は複雑かつあいまいなもので、おいそれとコンピューター上で再現できるものとは考えにくい。だが、言語モデルが今まで以上に進化し、人と自然な会話が当たり前にできるようになると、ルモワン氏のように、そこに感情や魂が宿ったと信じてしまう人が増えていくかもしれない。

Source: Wall Street Journal
via: Ars Technica , Mashable , Big Technology
Coverage: Washington Post


テック/ガジェット系メディア「Gadget Gate」のオリジナル記事を読む

新着クローズアップ

クローズアップ

アクセスランキング RANKING
1 エプソンの超短焦点4Kプロジェクター「EH-LS970」なら信頼の高画質シアターが置くだけで叶う
2 【インタビュー】パナソニック、ネットワークレコーダー“miyotto”の新たな挑戦で切り開く価値
3 ネットワークオーディオの雄・aurenderが考える“ハブ”の重要性。15年の技術を結集、リアルな表現力に舌を巻く
4 山善、Bluetoothスピーカー内蔵のウォールシェルフ。工具不要で壁に取り付け可能
5 【緊急続報】即完売のマイルス&ビル・エヴァンス名盤が奇跡の「再々入荷」!さらに超希少な「1点モノ」激レア盤も緊急追加!
6 JBL、機能強化したワイヤレスヘッドホン。オーバーイヤー型「Live 780NC」とオンイヤー型「Live 680NC」
7 【3/25発売・10%オフ】ヴィーナスのアナログ盤10タイトルが一挙リリース。ニッキ・パロットやエディ・ヒギンズなど名盤揃い
8 ソニーPCL、YOASOBIと共同制作プロジェクト「“INTO THE WORLD” YOASOBI - Concept Prototype -」
9 TVer、2025年の視聴傾向や推しタレントがわかる「わたしのTVerログ2025」公開
10 FocalとNaimの親会社VerVent AudioをBarcoが買収。包括的なオーディオビジュアルソリューション提供を目指す
3/13 11:08 更新

WEB