テクノロジー 災いの後の希望になるだろうか? 人間の持つ新しい視点や創造的な洞察を生み出す能力が輝くだろうか

AIがもたらすものとリスク(下)

2024/06/13
更新: 2024/06/13

最近のニュースでは、アメリカのニュースメディア「Vox」や、「アトランティック」誌と「ニュースコーポレーション」は、OpenAIと契約を結んでいる。これらの取引により、OpenAIがニュースサイトやアーカイブへのアクセス料を支払う。報道機関に新たな収益源がもたらされ、今後の持続可能性が伸びるかどうかが期待されている。

私は最近、報道機関がFacebook、Twitter、Googleなどのソーシャルメディアや検索エンジンに対し、彼らのサイトに、ニュース記事へのリンクを表示するための対価を支払うことの不合理さについて書いた。

検索エンジンやソーシャルメディアは、ニュース記事へのリンクを表示することで、ニュースサイトに多くの訪問者をもたらす。そのため、報道機関は、これらのプラットフォームで、自社を見つけられやすいように自社のウェブページを慎重に作成している。

検索エンジンは、ある意味で原始的なAIの一形態である。ネット上のコンテンツを収集し、それをユーザー向けにキュレート(必要な情報をたくさんの情報源から収集、整理、要約、公開、共有すること)して提供する。エンジンによって、ユーザーの過去の検索履歴に基づいて結果にパーソナライズすることもある。

大規模言語モデル(LLM)は、これと同じことを、より洗練された方法で行う。LLMは収集したコンテンツを独自のものとして提示するが、これが正当な著作権問題を引き起こす。そのため、何らかの形での支払いが必要になる。

現在、多くのニュースサイトは、自サイトのコンテンツの一部のみを無料で提供し、残りは有料にしている。LLMがこのような有料コンテンツにアクセスできると、彼らの提供するサービスの価値は大幅に向上する。このため、アクセスには料金が必要とされる。

このように、メディアは事実上、自社のコンテンツを独占して販売する方法を見つけ、収益面での改善を図り、従業員や株主に利益をもたらしている。

LLMが直面する問題として、誤情報や「幻覚」と呼ばれる完全に架空の事実を作り出すケースがある。また、インターネット上のコンテンツが左寄りである場合、AIシステムもそれに従って偏った回答をするリスクがある。

しかし、信頼性のあるニュースソースに広くアクセスすることで、LLMは中立性を外部委託することができ、ユーザーに対してよりバランスの取れた情報を提供できるようになる。これは、AIの回答の信頼性とバランスを向上させるための重要な手段だ。

AIの限界

私はこれまで20年間AIを活用してきたが、それが私のジャーナリズムにおける独自のニッチ(穴場)を作り出した。

政治キャンペーンについて書き始めたとき、権力の中枢や友人との日曜日のバーベキューで得たゴシップを事実のように流し、多くのジャーナリストのように恥をかくのは避けたかった。

そこで、元クイーンズランド州労働党書記であり、元クイーンズランド州議会議員のマイク・カイザー氏とともに、インターネットを利用したフォーカスグループ調査(マーケテイングの手法の一つ)の方法を考案した。

私たちは、数千人の回答を集めるオープンクエスチョンを含む調査を通じてデータをオンラインで収集した。これにより、政治キャンペーンに対する世論や意見をより正確に把握することができた。

私たちは「この連邦選挙であなたにとって重要な問題は何?」といった質問をした。これは、ジャーナリズムの一形態である「街頭インタビュー(Vox Pop)」を科学的に大規模に行ったようなもので、公共の場で個人の意見を尋ねる形式だ。

膨大なデータを分析するのは容易ではなかったが、2004年にクイーンズランド大学で開発されたレクシマンサー(Leximancer)に出会った。このツールは、単語の出現頻度と他の単語との関連性を調べ、通常では見つけにくい関連性を発見できる。

レクシマンサーは、データを精査し、私の調査質問から問題が投票にどのような影響を与えたかを示す単語マップを提供することができる。

突然、私は非常に低い予算で、何百万ドルも費やしていた主要政党以外では、国内最高の選挙情報を手に入れ、主要新聞に正確で洞察力に富んだ記事を書くことができるようになった。

ChatGPT などは、同様の機会を数多く提供する。

たとえば、通信社の「事実だけを伝える」タイプの記事の一部を AI が書くようになるかもしれない。

作家ルーク・バーギス氏は、AIが人文学の分野で、好景気をもたらす可能性があると考えている。これは、AIが人間のように新たな視点で物事を結びつける能力に欠けているためだ。

もしバーギス氏の予測が正しければ、人文学の教育方法も変革が必要になるだろう。現在の人文学部は、権威に基づく議論に支配される傾向があり、これが批判理論が容易に受け入れられる理由である。

AIが得意とするのは、大量のデータを処理し、既存の知識や情報を迅速に提供することだ。しかし、完全に新しい視点や創造的な洞察を生み出す能力はまだ限られている。したがって、AIが普及するにつれて、人間が持つ独自の思考力や創造性がより一層求められるようになる。

AIの進化は、人間の思考の改革を促すかもしれない。具体的には、AIが既存の知識の整理や引用に優れているため、オリジナルな思考が評価され、脚注に基づく盗作よりも重視されるようになるだろう。

結局のところ、パンドラの箱の底には、すべての災いが放たれた後でも希望が残っているかもしれない。

 

オーストラリア進歩研究所専務役員です。www.onlineopinion.com.au の編集者兼創設者であり、2001年より豪州政治に関する定性調査を行っています。オーストラリアン紙、オーストラリアン・フィナンシャル・レビューに寄稿し、ABCラジオ・ブリスベンの編集者をも務めています。