https://time.com/7013685/google-ai-deepmind-military-contracts-israel

ビリー
・ペリゴ更新:
2024年8月23日午前11時07分(東部夏時間)| 初出:
2024年8月22日午前8時(東部夏時間)
いいえタイム誌と事情を知る5人の人物が閲覧した文書のコピーによると、グーグルのAI部門であるディープマインドに所属する200人ほどの従業員が今年初め、このテクノロジー大手に対し軍事組織との契約を破棄するよう求める書簡に署名した。この書簡は、同社の技術が戦争に従事する軍隊に販売されているという懸念がAI研究所内で高まる中で回覧され、従業員らはこれはグーグル自身のAI規則に違反していると主張している。
この書簡は、グーグル社内で少なくとも一部のAI部門の従業員(軍事技術には決して従事しないと誓っている)とクラウド事業部の間で対立が高まっていることの表れだ。クラウド事業部は、ディープマインド内で開発されたAIを含むグーグルのサービスをイスラエルや米国を含む複数の政府や軍隊に販売する契約を結んでいる。署名者はディープマインド全体の従業員数の約5%に相当し、確かにわずかな割合だが、機械学習の優秀な人材の需要が高い業界にとって、従業員の不安は相当なものだ。
今年5月16日付のディープマインドからの書簡は、従業員が「グーグルと軍事組織との契約に関する最近の報道を懸念している」という記述で始まる。書簡では特定の軍隊の名前は挙げられておらず、「この書簡は特定の紛争の地政学に関するものではないことを強調する」としている。しかし、書簡はタイム誌の4月の報道にリンクしており、グーグルがイスラエルとのより広範な契約「プロジェクト・ニンバス」に基づき、クラウドコンピューティングとAIサービスをイスラエル国防軍に直接供給する契約を結んでいることが明らかになっている。書簡はまた、イスラエル軍がガザ爆撃作戦のためにAIを使って大量監視と標的選定を行っている、イスラエルの武器企業は政府からグーグルとアマゾンからクラウドサービスを購入するよう求められている、という他の記事にもリンクしている。
続きを読む:独占: Google の契約書にイスラエル国防省との取引が明らかに
「軍事や兵器製造へのいかなる関与も、倫理的で責任あるAIのリーダーとしての当社の立場に影響を与え、当社のミッションステートメントや明記されたAI原則に反する」と、Google DeepMind社内で回覧された書簡には記されている。(これらの原則では、同社は「全体的な危害」を引き起こす可能性のあるAIの応用を追求したり、「主な目的または実施」が傷害を引き起こすことである兵器やその他の技術に寄与したり、「その目的が国際法および人権の広く受け入れられている原則に反する」技術を開発したりしないとしている。)書簡では、署名者は「GoogleのAI原則が遵守されることを確実にする」ことに懸念を抱いており、「[DeepMindの]リーダーシップが私たちの懸念を共有していると信じている」と付け加えている。
Googleの広報担当者はTIME誌に次のように語った。「AI技術を開発し、顧客に提供する際、当社は責任を持って技術を開発するという当社の取り組みを概説したAI原則を遵守しています。Nimbus契約は、当社の利用規約と利用規定を遵守することに同意したイスラエル政府省庁が当社の商用クラウドで実行するワークロードを対象としていることは、当社は明確にしています。この作業は、武器や諜報機関に関連する機密性の高い機密性の高い軍事ワークロードを対象としたものではありません。」

この書簡は、ディープマインドのリーダーに対し、軍や兵器メーカーがグーグルクラウドのユーザーであるという疑惑を調査すること、軍のユーザーによるディープマインドの技術へのアクセスを停止すること、そして、ディープマインドの技術が将来的に軍の顧客によって使用されないようにする責任を負う新しい統治機関を設立することを求めている。書簡が回覧されてから3か月が経過したが、事情を知る4人の人物によると、グーグルはこれらのことを何も実行していない。「私たちはリーダーから意味のある反応を受け取っていない」と1人が述べ、「ますます苛立ちを募らせている」という。

ディープマインドが2014年にグーグルに買収されたとき、研究所のリーダーたちは検索大手から大きな約束を引き出しました。それは、彼らのAI技術が軍事や監視目的に決して使われないというものでした。ロンドンを拠点とするこの研究所は、長年にわたりグーグルのカリフォルニア本社から高度に独立して運営されていました。しかし、AI競争が激化するにつれて、ディープマインドはグーグル本体にさらに深く引き込まれていきました。2021年に研究所のリーダーたちがさらなる自律性を確保しようとした試みは失敗し、2023年にグーグルのもう一つのAIチームであるグーグルブレインと合併し、テック界の巨人の中枢にさらに近づきました。ディープマインドのリーダーたちがAI研究所の技術の使用を統制することを望んでいた独立した倫理委員会は、結局1度しか開催されず、すぐに包括的なグーグルの倫理方針であるAI原則に置き換えられました。これらの原則は、グーグルが「全体的な危害」を引き起こす可能性のあるAIを開発しないと約束していますが、同社が「利益がリスクを大幅に上回る」と結論付けた場合、危害を引き起こす可能性のある技術を開発することを明示的に許可しています。また、Google の AI を軍事顧客に販売する可能性も排除していない。
その結果、ディープマインドの技術はグーグルのクラウドソフトウェアに組み込まれ、イスラエルや同国防省を含む軍や政府に販売されている。「ディープマインドはこれまで軍のAIや防衛契約に取り組むことに不満を抱いていたかもしれないが、これはもはや私たちの決定ではないと思う」と、ディープマインドの従業員の1人が4月にTIMEに語った。彼らは公に話す権限がないため匿名を条件に話した。グーグルの従業員数名は4月にTIMEに、プライバシー上の理由から政府機関の顧客による自社インフラの使用状況について同社が把握できる情報は限られているため、グーグルが自社の許容使用ポリシー(ユーザーが自社製品を使って「死亡、重傷、または傷害を引き起こす可能性のある暴力」を行うことを禁じている)に違反していないか確認するのは困難、あるいは不可能かもしれないと語った。
続きを読む:グーグル労働者がイスラエルとの12億ドルの契約をめぐって反乱
Google は、イスラエルとの契約であるプロジェクト ニンバスは「武器や諜報機関に関連する、非常に機密性の高い機密扱いの軍事作業に向けられたものではない」と述べている。しかし、5 月に DeepMind 内で回覧された書簡によると、その回答は「その技術があらゆる形態の暴力を可能にしたり、国際的に認められた規範に違反する監視を可能にしたりするという主張を否定するものではない」という。プロジェクト ニンバスに関する Google の声明は「あまりに具体的で曖昧なので、実際に何を意味しているのか、私たち全員がまったく理解できない」と、書簡の署名者の 1 人が TIME に語った。
TIMEからさらに
サム・アルトマンが語るOpenAIと汎用人工知能
https://imasdk.googleapis.com/js/core/bridge3.663.0_en.html#goog_327155486
0 seconds of 15 minutes, 42 seconds音量0%
事情を知る3人によると、6月に行われたディープマインドのタウンホールイベントで、幹部らは書簡への返答を求められた。ディープマインドの最高執行責任者リラ・イブラヒム氏が質問に答えた。タイム誌が確認した会議中に取られた一連のメモによると、彼女は従業員に対し、ディープマインドは兵器や大量監視のためのAIアプリケーションを設計または展開することはなく、グーグルクラウドの顧客は同社の利用規約と利用規定に法的に拘束されると語った。イブラヒム氏はさらに、安全で責任あるAIを推進してきたグーグルの実績を誇りに思っており、それが同社に入社し、留まることを選んだ理由だと付け加えた。
