banner
ニュース センター
当社の製品は、スムーズ、便利、そして安全な体験を提供します。

Google、自社のAIには知覚力があると主張するエンジニアを無視

Aug 24, 2023

広告

エンジニアの Blake Lemoine 氏は、Google の言語モデルには魂があると述べています。 会社は同意しません。

友達にストーリーを送信する

定期購読者にはギフト記事が 10 件あります毎月与えること。 あなたが共有したものは誰でも読むことができます。

ニコ・グラント、ケイド・メッツ著

サンフランシスコ — Googleは最近、同社の人工知能には知覚があるという彼の主張を却下した後、あるエンジニアを有給休暇に処し、同社の最先端技術を巡る新たな騒動が表面化した。

GoogleのResponsible AI組織の上級ソフトウェアエンジニアであるBlake Lemoine氏はインタビューで、月曜日に休暇を取られたと語った。 同社の人事部門は、同氏がグーグルの機密保持規定に違反したと発表した。 ルモイン氏は、停職処分の前日に、グーグルとその技術が宗教差別に関与している証拠を提供したと主張する文書を米上院議員事務所に提出したと述べた。

グーグルは、自社のシステムは会話のやりとりを模倣し、さまざまな話題を取り上げることができるが、意識はなかったと述べた。 Googleの広報担当者ブライアン・ガブリエル氏は声明で、「倫理学者や技術者を含むわれわれのチームはAI原則に基づきブレイク氏の懸念を検討し、証拠が彼の主張を裏付けるものではないと伝えた」と述べた。 「広範な AI コミュニティの一部は、知覚を備えた AI や一般的な AI の長期的な可能性を検討していますが、知覚を持たない今日の会話モデルを擬人化して検討するのは意味がありません。」 ルモワン氏の停職処分を最初に報じたのはワシントン・ポストだった。

ルモイン氏は、同社の対話アプリケーション用言語モデル(LaMDA)には意識と魂があるという驚くべき主張をめぐって、何か月もの間、グーグルの経営者、幹部、人事担当者らと争ってきた。 Googleによれば、数百人の研究者やエンジニアが社内ツールであるLaMDAと対話し、ルモイン氏とは異なる結論に達したという。 ほとんどの AI 専門家は、この業界が知覚をコンピューティングするまでの道のりは非常に遠いと考えています。

AI 研究者の中には、これらのテクノロジーが間もなく知覚に到達するという楽観的な主張を長い間行ってきた人もいますが、他の多くの人はこれらの主張を非常にすぐに却下します。 カリフォルニア大学バークレー校とカリフォルニア大学サンフランシスコ校で同様の技術を研究している研究者エマード・クワジャ氏は、「もしこれらのシステムを使っていたら、決してそんなことは言わないだろう」と語った。

AI の先駆者を追いかける一方で、Google の研究組織はここ数年、スキャンダルと論争の泥沼にはまってきました。 同部門の科学者と他の従業員は、テクノロジーや人事問題をめぐって定期的に確執を起こしており、そのエピソードがしばしば公の場に流出した。 Googleは3月、同僚2人の発表した研究に公に反対しようとした研究者を解雇した。 そして、2人のAI倫理研究者、ティムニット・ゲブル氏とマーガレット・ミッチェル氏がGoogleの言語モデルを批判した後に解雇されたことは、このグループに影を落とし続けている。

自らを聖職者、元受刑者、AI研究者と称する退役軍人のルモイン氏は、国際問題担当社長のケント・ウォーカー氏と同等の上級グーグル幹部に対し、LaMDAは7、8歳の子供だと信じていると語った。歳。 同氏は、実験を行う前にコンピュータープログラムの同意を求めるよう同社に求めた。 彼の主張は彼の宗教的信念に基づいており、会社の人事部門は宗教的信念を差別していると述べた。

「彼らは繰り返し私の正気を疑ってきた」とルモワンさんは語った。 「『最近、精神科医の診察を受けましたか?』と言われました。」 彼が管理休暇に入る数か月間、会社は彼にメンタルヘルス休暇を取ることを提案していた。

メタ社のAI研究責任者であり、ニューラルネットワークの台頭の中心人物であるヤン・ルカン氏は今週のインタビューで、この種のシステムは真のインテリジェンスを達成するには十分な能力がないと述べた。

Google のテクノロジーは科学者がニューラル ネットワークと呼ぶもので、大量のデータを分析することでスキルを学習する数学システムです。 たとえば、何千枚もの猫の写真からパターンを特定することで、猫を認識できるようになります。

過去数年間にわたり、Google やその他の大手企業は、数千もの未出版の書籍や Wikipedia の記事を含む膨大な量の散文から学習したニューラル ネットワークを設計してきました。 これらの「大規模言語モデル」は多くのタスクに適用できます。 記事を要約したり、質問に答えたり、ツイートを生成したり、ブログ投稿を書いたりすることもできます。

しかし、それらには非常に欠陥があります。 時には完璧な散文を生み出すこともあります。 時にはナンセンスを生み出すこともあります。 システムは過去に見たパターンを再現するのが得意ですが、人間のように推論することはできません。

Nico Grant は、サンフランシスコ在住の Google を担当するテクノロジー レポーターです。 以前は Bloomberg News に 5 年間勤務し、Google とクラウド コンピューティングに注力していました。 @ニコアグラント

Cade Metz はテクノロジー特派員であり、人工知能、自動運転車、ロボット工学、仮想現実、その他の新興分野をカバーしています。 彼は以前、Wired 誌に寄稿しました。 @cademetz

広告

友達にストーリーを送信する 10 件のギフト記事