独占:Google DeepMindの従業員が同社に軍事契約の打ち切りを要求
https://time.com/7013685/google-ai-deepmind-military-contracts-israel ビリー ・ペリゴ更新: 2024年8月23日午前11時07分(東部夏時間)| 初出: 2024年8月22日午前8時(東部夏時間) いいえタイム誌と事情を知る5人の人物が閲覧した文書のコピーによると、グーグルのAI部門であるディープマインドに所属する200人ほどの従業員が今年初め、このテクノロジー大手に対し軍事組織との契約を破棄するよう求める書簡に署名した。この書簡は、同社の技術が戦争に従事する軍隊に販売されているという懸念がAI研究所内で高まる中で回覧され、従業員らはこれはグーグル自身のAI規則に違反していると主張している。 この書簡は、グーグル社内で少なくとも一部のAI部門の従業員(軍事技術には決して従事しないと誓っている)とクラウド事業部の間で対立が高まっていることの表れだ。クラウド事業部は、ディープマインド内で開発されたAIを含むグーグルのサービスをイスラエルや米国を含む複数の政府や軍隊に販売する契約を結んでいる。署名者はディープマインド全体の従業員数の約5%に相当し、確かにわずかな割合だが、機械学習の優秀な人材の需要が高い業界にとって、従業員の不安は相当なものだ。 今年5月16日付のディープマインドからの書簡は、従業員が「グーグルと軍事組織との契約に関する最近の報道を懸念している」という記述で始まる。書簡では特定の軍隊の名前は挙げられておらず、「この書簡は特定の紛争の地政学に関するものではないことを強調する」としている。しかし、書簡はタイム誌の4月の報道にリンクしており、グーグルがイスラエルとのより広範な契約「プロジェクト・ニンバス」に基づき、クラウドコンピューティングとAIサービスをイスラエル国防軍に直接供給する契約を結んでいることが明らかになっている。書簡はまた、イスラエル軍がガザ爆撃作戦のためにAIを使って大量監視と標的選定を行っている、イスラエルの武器企業は政府からグーグルとアマゾンからクラウドサービスを購入するよう求められている、という他の記事にもリンクしている。 続きを読む:独占: Google の契約書にイスラエル国防省との取引が明らかに 「軍事や兵器製造へのいかなる関与も、倫理的で責任あるAIのリーダーとしての当社の立場に影響を与え、当社のミッションステートメントや明記されたAI原則に反する」と、Google DeepMind社内で回覧された書簡には記されている。(これらの原則では、同社は「全体的な危害」を引き起こす可能性のあるAIの応用を追求したり、「主な目的または実施」が傷害を引き起こすことである兵器やその他の技術に寄与したり、「その目的が国際法および人権の広く受け入れられている原則に反する」技術を開発したりしないとしている。)書簡では、署名者は「GoogleのAI原則が遵守されることを確実にする」ことに懸念を抱いており、「リーダーシップが私たちの懸念を共有していると信じている」と付け加えている。 Googleの広報担当者はTIME誌に次のように語った。「AI技術を開発し、顧客に提供する際、当社は責任を持って技術を開発するという当社の取り組みを概説したAI原則を遵守しています。Nimbus契約は、当社の利用規約と利用規定を遵守することに同意したイスラエル政府省庁が当社の商用クラウドで実行するワークロードを対象としていることは、当社は明確にしています。この作業は、武器や諜報機関に関連する機密性の高い機密性の高い軍事ワークロードを対象としたものではありません。」 S この書簡は、ディープマインドのリーダーに対し、軍や兵器メーカーがグーグルクラウドのユーザーであるという疑惑を調査すること、軍のユーザーによるディープマインドの技術へのアクセスを停止すること、そして、ディープマインドの技術が将来的に軍の顧客によって使用されないようにする責任を負う新しい統治機関を設立することを求めている。書簡が回覧されてから3か月が経過したが、事情を知る4人の人物によると、グーグルはこれらのことを何も実行していない。「私たちはリーダーから意味のある反応を受け取っていない」と1人が述べ、「ますます苛立ちを募らせている」という。 ディープマインドが2014年にグーグルに買収されたとき、研究所のリーダーたちは検索大手から大きな約束を引き出しました。それは、彼らのAI技術が軍事や監視目的に決して使われないというものでした。ロンドンを拠点とするこの研究所は、長年にわたりグーグルのカリフォルニア本社から高度に独立して運営されていました。しかし、AI競争が激化するにつれて、ディープマインドはグーグル本体にさらに深く引き込まれていきました。2021年に研究所のリーダーたちがさらなる自律性を確保しようとした試みは失敗し、2023年にグーグルのもう一つのAIチームであるグーグルブレインと合併し、テック界の巨人の中枢にさらに近づきました。ディープマインドのリーダーたちがAI研究所の技術の使用を統制することを望んでいた独立した倫理委員会は、結局1度しか開催されず、すぐに包括的なグーグルの倫理方針であるAI原則に置き換えられました。これらの原則は、グーグルが「全体的な危害」を引き起こす可能性のあるAIを開発しないと約束していますが、同社が「利益がリスクを大幅に上回る」と結論付けた場合、危害を引き起こす可能性のある技術を開発することを明示的に許可しています。また、Google…