2023年11月23日、ドイツ西部のフランクフルト・アム・マインで、ノートパソコンの画面に表示されたChatGPTアプリケーションのロゴ(右)とスマートフォンの画面に表示されたAIの文字 (Kirill Kudryavtsev/AFP via Getty Images)

解雇されたOpenAI研究員、中国のスパイ活動に警鐘

解雇されたOpenAIの研究員、レオポルド・アッシェンブレナー氏(29)は、2027年までに汎用人工知能(AGI)が実現するとの見通しを示し、中国共産党(中共)のスパイ活動の脅威に警鐘を鳴らしている。

アッシェンブレナー氏によれば、中共がAGIに注目すれば、競争に参加し、アルゴリズムを盗むために努力を注ぐだろうと述べている。「中共がAGIの重要性に気付けば、アメリカを超えようとし、アルゴリズムを盗むだろう」

AGI発展への重要な突破口が今後数年間で中共に盗まれる可能性があり、これが国家安全保障にとって大きな脅威となる。

同氏は、「これが国家安全保障機関にとって今後10年で最大の後悔になるだろう」と警告し、「自由世界が専制国家からの侵害を防ぐために、厳格なセキュリティ対策が必要だ」と指摘している。

アッシェンブレナー氏は、人工知能モデルの重み(ニューラルネットワーク内の結合の強さを示す数値)やアルゴリズムの秘密について、現状が深刻な欠陥を抱えていると指摘している。「中国がAGI競争において競争力を維持できる最も可能性の高い方法は、アルゴリズム機密の保護に失敗することだろう。現在のアルゴリズム機密のセキュリティがどれほど悪いか、言葉では言い表せないほどだ」と述べている。

さらに、AGIが人工知能研究の自動化を通じてわずか5年以内に超知能を生み出す可能性があるとも考えている。

同氏のシリーズ記事「状況認識:未来の10年」は、テクノロジー業界で大きな反響を呼んでいる。

コンピュータ科学者のスコット・アーロンソン氏は「私が読んだ中で最も驚くべき文書の一つ」と評した。ソフトウェアエンジニアのグラディ・ブーチ氏はX(旧ツイッター)で「その多くが間違っていて、恥ずかしく、驚くべきもの」とコメントしている。AI政策センターのジェイソン・ローグリン氏も「この分野を規制するべきだった」と評価している。

人工知能安全運動のジェイソン・コルボーン氏は、X上で米中人工知能競争への言及に対し、「まずアメリカと中共の二国間条約から始めるグローバルな不拡散条約を作るべきだ」と主張している。

最近、GoogleとDeepMindの人工知能研究員らも、AI技術には「重大なリスク」があり、「人類の絶滅を招く可能性すらある」と警告する書簡を発表している。

AI規制

アッシェンブレナー氏は、アメリカや世界各国の立法者が人工知能の規制を検討し始めた中で、「状況認識」の見解を示している。

2023年3月には、欧州議会が影響力の大きい「人工知能法案」を可決した。最近、アメリカ議会は「ENFORCE法案」を提案し、商務省の産業安全局が人工知能技術の輸出規制を実施することを可能にしている。

OpenAIの人事部、中共への警鐘は「人種差別的」?

アッシェンブレナー氏は、OpenAIを離れた数か月後に「状況認識」を発表し、以前はOpenAIのSuperalignmentチームで働いていた。今年4月、「The Information」は、彼と別のOpenAI社員が「情報漏洩の疑い」で解雇されたと報じた。

6月4日のドワルケシュ・パテル氏のインタビューでは、アッシェンブレナー氏は「漏洩」とされるものについて、AGIのタイムラインを示す安全文書をOpenAIに関係のない3人の研究者に渡しただけだと説明している。「当時、OpenAIが外部の研究者と安全性のアイデアを共有してフィードバックを得ることは普通なことだった」と述べている。

同氏は自身の解雇が中国による知的財産の盗難に対する懸念と関連していると考えている。

彼はパテル氏に、中共の脅威に言及したセキュリティメモを起草し、それをOpenAIの取締役会に共有した後、OpenAIの人事部から正式な叱責を受けたと語っている。

人事部はアッシェンブレナー氏に「中共のスパイ活動を心配することは人種差別的な行動だ」と伝えたそうだ。同氏は、そのメモで単に警告されたのではなく、後に解雇されたことを知らされたと付け加えた。

エポックタイムズは、アッシェンブレナー氏の主張についてOpenAIにコメントを求めている。

Superalignmentチームの共同リーダーであるイリヤ・スツケヴァー氏とヤン・ライケ氏は5月中旬にOpenAIを退社している。ライケ氏はX上で「ここ数年、安全文化とプロセスを重視することが二の次になり、光り輝く製品が注目されている」と書き込んだ。

同氏は「AGIの影響について真剣に考えるのは、ずっと遅れている。できる限りの準備を優先しなければならない」と付け加えた

19歳でコロンビア大学を首席で卒業したドイツ生まれの研究者、アシェンブレンナー氏は、ロシア生まれのイスラエル系カナダ人コンピューター科学者、スツケヴァー氏に「状況認識」シリーズを捧げた。

 

関連記事
Googleの元CEO、エリック・シュミット氏は、自律型AIの急速な進歩が人類に深刻な脅威をもたらす可能性があると警告した。また、中ロなどの敵対国がこの技術を利用して米国の覇権に挑戦する可能性がある中、国際的な協力と規制の必要性を訴えた。
GoogleのAI「Gemini」が大学院生に不適切な発言をし、AI技術のリスクが改めて問題視された。企業の責任が問われる中、AIの安全性や倫理が注目されている。類似の事例も増え、技術の普及とリスクのバランスが課題となっている
アメリカ政府はTSMCに対し、中国企業への最先端チップの出荷停止を指示。これによりAIチップの輸出が制限され、中国の最先端技術への影響が懸念される。
AIは便利な反面、社会の安全性に大きな問題をもたらす両刃の剣。2024年のノーベル物理学賞を受賞した「AIの父」ジェフリー・ヒントン博士は、世界がAIの制御不能な状況に陥る瀬戸際にあると警告している。
加工食品に使われる「見えない」添加物の安全性やリスクに焦点を当てた興味深い記事。加工助剤の役割や影響を知り、より安全な選択肢を考えるヒントが得られます。