AIのパラドックス  「誰がAIを監視するのか?」

2024/09/09
更新: 2024/09/10

人工知能AI)の急速な導入に馴染みがあるのは、過去にも類似の状況があったからだ。90年代後半、あらゆる規模の組織、特に大企業やエンタープライズレベルの企業は、レガシーシステムからデジタルトランスフォーメーションへの移行に必死になっていた。そして2020年のCOVID-19パンデミックとそれに続く世界的なロックダウンでは、企業はリモートワークを支援するためのデジタル化を急いだ。特にホームオフィスの運営やワークフロー、コンプライアンスの整備に追われることとなった。

現在、AIの分野でも類似の急成長が見られる。MicrosoftやAppleをはじめとするテック企業が、OpenAIなどのAI関連プロジェクトに数十億ドルを投資しており、AI支配を巡る競争はますます激化している。AI支配の競争がどれほど激しいかを、誰もが十分に理解しているはずだ。それほど変革的なものなのだ。

AIがもたらすビジネスの変革

AIが近い将来、そしておそらく永遠に私たちの生活を根本的に変える技術の進歩であることに疑いの余地はない。実際、すでにその変化は始まっており、続いている。しかし、AIの初期段階では実用的な障害も存在する。

例えば、企業の経営者や取締役会は、AIの導入と管理において障害に直面しており、これがAIの潜在能力をほんの一部しか実現できない原因となっている。さらに、企業レベルのAI展開に伴う数百万ドルの支出が、業務の効率化、ワークフローの最適化、部門間の統合、その他の組織的な課題の解決に見合うものであるかどうかを正当化するのが困難だ。

しかし、これはAIが中小企業や大企業に与える課題とリスクの始まりに過ぎない。

プライバシーと倫理のリスク

AIの潜在的な力は、データ分析のスピードだけでなく、個人情報へのアクセスの速さとそのアクセスを悪用する可能性にもある。個人のプライバシーは法的権利によって守られており、そのプライバシーを保護する責任は、個人データを保有している組織にある。AI駆動のプログラムや製品が悪用されたり、監視されていなかったりすると、企業がプライバシー法に違反するリスクが高まる。

また、AIプログラムに組み込まれたバイアスの永続化や、その結果としての社会的影響もリスクの一部だ。これにはAIプログラマーやサービス提供者の個人的な信念が含まれる可能性があり、特定の人々に対して有害な影響を及ぼすことがある。

違法な監視もAIがあらゆる規模の組織にもたらすリスクの一つだ。人々は自分の時間に活動しているときに監視されない権利があるのか? 自分の行動が予測分析によって商品化され、市場で繰り返し売られることに対して権利があるのか? 理論的にはその権利はあるはずだが、実際には技術が法制度の対応能力を超えて進化している。技術の変化と能力のリスクはあまりにも速すぎる。

AIにおけるバイアス

AIにおけるバイアスをもう少し詳しく検討する価値がある。「ガービッジ・イン、ガービッジ・アウト/ガベージ・イン、ガベージ・アウト(ゴミを入れたら、ゴミが出てくる)」という格言は、AIが人間やその個々の信念、行動、意見に対しても適用される際のリスクや影響を示している。これは、ビジネスの行動基準、プライバシーの懸念、その他のビジネスの側面にも適用され、主観的なAI駆動のプロセスやプログラムによって評価される、または価値が下がる可能性がある。

AIは創造者の産物であり、創造者のバイアスを反映している。道徳的や倫理的な問題、スピードよりも熟慮の価値、交渉や妥協の複雑なプロセス、現在の利益対未来の利益、市場での好意などが絡む場合においては、客観性を得ることは難しく、時には不可能だ。

AI統合のリスクと課題

実際問題として、多くの企業はAIを現在の業務に統合することが困難であり、破壊的であることに気づいている。多くの場合、組織の成長は有機的かつ組織的であり、効率化されている一方で、サイロ化も進んでいる。つまり、ビジネスの慣行やワークフローの微妙な違いは時間の経過とともに、個性の癖、組織内外の人間関係、確立されたビジネス慣行、その他の「人間的要因」によって進化してきた。

このような微妙な組織やワークフローにAI駆動型システムを統合するプロセスは、費用がかかるだけでなく、組織自体を根本的に変えてしまい、従業員や経営陣にとって認識できないものにしてしまう可能性がある。また、高額なコンプライアンス違反を引き起こすこともある。このようなリスクは、取締役会や経営陣が高額な統合に対して弱い結果を恐れる正当な理由となる。

AIにおけるデータセキュリティ

AI駆動型システムの導入に伴う最大のリスクの一つは、企業全体のデータに対するアクセスのスピードだ。AIによってサイバー攻撃が強化されるだけでなく、ネットワークに侵入したハッカーは、防護されていない機械や人間のアイデンティティにアクセスし、AI駆動型システムを使って攻撃を加速して保護されたデータを見つけ出し、データ窃盗やランサムウェア攻撃を従来よりもはるかに速く実行できる。

実際、攻撃者は、企業のAI駆動型システムを利用して侵害されたことに気付く前に自社のデータ損失を補うことができるようになった。AIは本質的に、それをコントロールする者の仕事をするツールだ。例えば、Microsoft 365のCopilotでは、研究者がいくつかのプロンプトを入力するだけで、重要なデータを迅速に特定し、抽出することができた。これは、以前のハッカーには不可能だったことだ。
 

法的リスク

訴訟社会の現在、AIが企業にもたらすリスクは大きく、困難なものである。実際、AI駆動のプログラム、ツール、ソリューションは今後も急速に採用されていくだろう。同時に、知的財産に対するリスクや、規制遵守、説明責任、プライバシー、倫理的な懸念という点で、AIが組織にもたらす責任も、すぐにはなくならないだろう。

企業や組織は、取り残されたくないため、AIの導入と展開を急いでいる。「革新か、さもなくば死を」という言葉は、ただの過激な言葉ではない。多くの企業にとって、それは現実だ。

この記事で何を書こうが、人工知能は避けられない。そう遠くないうちに、AIが全国、そして世界中の組織を監視するようになるだろう。その変革は、20年もかかった以前の経済のデジタル革命よりもはるかに早いだろう。

しかし、このような状況の中で、1つの明白な疑問が残る。それは 「誰がAIを監視するのか?」と言うことだ。

この記事で述べられている見解は著者の意見であり、必ずしも大紀元の見解を反映するものではありません。
関連特集: オピニオン