ガザの「ディープフェイク」画像が大量拡散、AI乱用に警鐘を鳴らす専門家

2023/11/30
更新: 2023/11/30

 

イスラエルとガザの衝突において、血まみれの捨てられた赤ん坊の写真が特に目立っているが、これらの実際は、AIによって作られたディープフェイク(偽造)画像だった。戦争が始まって以来、これらの画像はインターネット上で数百万回閲覧されていた。

よく見ると、写真中の人物の指が不自然に曲がっていたり、目が不自然な輝きを放っているなど、小さな手掛かりが見つかる。しかしながら、これらの画像が引き起こした強烈な怒りは、本物なのだ。

イスラエルとガザの戦争中の画像は、AIがプロパガンダツールとしての潜在力を生々しく、残酷に示している。それはまるで本物のような大虐殺の画像を創り出し、存在しない暴行を信じさせるために使われている。

技術の進歩と監視の不足に伴い、専門家たちは将来の衝突、選挙、その他の重要な事件で、AIがより頻繁に乱用される懸念を増大させている。

サンフランシスコとパリに本社を置く技術会社CREOpointは、インターネット上で広く拡散されているガザ地区のディープフェイク画像や映像を収集したデータベースを作成した。

CREOpointの最高経営責任者(CEO)、ジャン=クロード・ゴールデンスタイン氏は次のように述べている。「状況が改善する前に、さらに悪化するだろう、非常に悪化するだろう」

画像、動画、音声:生成型AIを使えば、前例のないレベルに引き上げられると、ゴールデンスタイン氏は語っている。

時には、他のところで起こった衝突や災害の写真がAIによって利用され、新しい写真が作成されることがある。場合によっては、生成型AIが完全に新しい画像を創出することもある。例えば、衝突の初期に、爆撃の残骸の中で泣いている赤ん坊の画像がネット上で急速に広まったが、実際にはAIによる偽造だった。

AIによって生成された画像や動画は、イスラエルのミサイル攻撃を示すものや、戦車が破壊された街を通過する様子、家族が廃墟の中で生存者を探す姿などを含む。これらの偽動画は、多くの場合、人々の強い感情的反応を引き起こすことを目的とし、その中には乳幼児や子供の遺体も含まれていたのだ。

非営利団体「デジタルヘイト対策センター」(CCDH)のCEOであるイムラン・アーメド氏は、プロパガンダを作成する者たちは、人々の内なる衝動や不安を巧みに捉えて利用すると述べている。画像がより忌まわしければ、ユーザーがそれを記憶し、共有する可能性が高まり、無意識のうちに偽情報を広めることになるという。

例えば、ロシアがウクライナに侵攻した際、ウクライナのゼレンスキー大統領が降伏を命じる動画が流布された。しかし、それは偽動画だった。この動画は今でもインターネット上に出回っており、容易に偽物と看破される誤情報であっても長期間にわたって拡散されることを示した。

これを受け、多くのAI専門家が警鐘を鳴らしている。来年には、米国、インド、パキスタン、ウクライナ、台湾、インドネシア、メキシコなど、複数の国で大規模な選挙が予定されており、AIやソーシャルメディアが虚偽の情報を広めるために、利用する可能性がある。 

最近のディープフェイク技術の危険性に関する米連邦議会の聴聞会では、民主党の連邦下院議員ジェリー・コノリー氏が、米国政府は他のAIに対抗するAIツールの開発に、投資すべきだと述べたという。

世界中のスタートアップ企業がディープフェイク作品を識別する新しいプログラムの開発に取り組んでいる。

コンピューター科学者であるデイビッド・ドアマン氏は、米国国防高等研究計画局(ダーパ、DARPA)において、AIによる画像操作が、国家安全保障に与える脅威に対応するプロジェクトを指揮した経験がある。現在は、ニューヨーク州立大学バッファロー校の教授として、AIによる虚偽情報が、政治や社会に与える挑戦に効果的に対処するためには、技術の向上、より完璧な法規制、自発的な業界標準、そしてネットユーザーが真偽を見分ける方法を見つけるための、デジタルリテラシープログラムへの広範な投資が必要であると語った。

ドアマン氏は、「虚偽情報を検出し、取り除く試みだけでは解決策にはならない。より大きな解決策が必要である」と述べている。

 

(本記事は、APの報道を参考にしている)

 

陳霆