2022年11月、ChatGPTという人工知能(AI)を使ったチャットボットがリリースされ、世界に衝撃を与えた。このプログラムはとても賢く、恐ろしいほど人間に近い会話ができる。以前のバージョンと比べても、ほとんど欠陥がないように思える。しかも、ただ会話に付き合ってくれるだけではない。宿題を仕上げたり、見事な画像を作成したり、詩を創作したりと、様々な作業をこなせるようになった。
まるで、スーパーコンピューターの頭脳にアクセスするようだ。それがこのテクノロジーの魅力であり、恐ろしさでもある。イーロン・マスクは2014年に、「人類はAIによって悪魔を召喚しようとしている」と警告している。しかし、その脅威が現実となるのは、ChatGPTのようなAIが、人間と見分けがつかないような受け答えができるようになってからだろう。今、その目覚ましいテクノロジーの進歩によって、医療からアカデミックの領域まで、多岐にわたる産業構造が一変してしまうのではないかといった懸念が広がっている。
ジャーナリズムやサービス業など、これまで人の手を必要としてきた仕事でも、AIによる代替と自動化に直面している。言語の営みは人間の知恵の最高到達点とされてきたが、AIはまさにそういった人類の独自性に挑戦している。私たちの生活は、AIに侵入されたのだ。
極度に高度化したAI
ChatGPTなら、あなたが望むどんな話題でもおしゃべりできる。さらに、コード解析から本格的なエッセイの執筆まで、何でもこなす。この無料オンラインプログラムは、「自然な言語入力を理解しそれに応答する」よう設計されたコンピュータープログラムを自称している。
GPTは、「Generative Pre-trained Transformer」の略だ。訳せば「文章を生成する事前学習済み変換器」となる。ChatGPTは、ユーザーに親切な応答を生成するプログラムで開発・使用されている一連のテクノロジーがベースとなっている。AIは、脳の神経回路のように機能するテクノロジーを用いて、考え方や反応の仕方を学習する。そのプロセスで膨大な情報を与えることで、AIは情報処理ができるようになり、適応・学習・創造が可能となる。そうやって知性を獲得するのだ。
GPTの最新版が使用されているChatGPTでは、ユーザーが最小限の記入事項を入力するだけで、人間が作成したようなテキストを大量に生成することが可能だ。また、すでに想像を絶するほど大量のデータを処理しており、ユーザーの質問にどう答えれば良いかを学習できる。例えば、ChatGPTに「詩を書いて」と頼むと、以下のような文章が生成される。
まばゆい星空の下
そよ風と銀色の光に包まれて
立ち上がり夜を見つめれば
私の思考は飛翔する
月と星が私の頭上に輝き
神聖な暗闇に私を導けば
愛と時間が思い出される
美はすべて私のもの
世界は広大だが小さくて荘厳でもある
解析されるのを待っている謎
砂の中に隠された秘密と
缶詰にされるのを待っている物語
だから私を星の下に立たせて
私の魂と精神が舞い上がるように
遮られることのないこの美しさの中で
私は未来永劫に己の心を見つける
印象的な詩ではないだろうか。ChatGPTは、与えられた膨大なデータから人類が創作してきた詩を処理・分析し、数秒で新たな詩を作り出すことができる。しかも、同じコマンドを入力しても、毎回違う結果が出てくるかもしれない。
エッセイを執筆したり、大量のコードを書くのにも、ChatGPTは同じことができる。カジュアルな会話はもちろん、専門用語を上手く噛み砕いて、量子コンピュータについて中学1年生でも理解できる説明ができる。
人々がなぜこのプログラムに惹きつけられるのか、容易に理解できるだろう。多くの問題を解決できるし、タスクをショートカットできるからだ。無料のチャットで十分すぎるほど使える。学生の課題を監督する教師にとっては悪夢だが、それを除けば、このテクノロジーに欠点などあるだろうか。
ChatGPTは責任を持てない
最近、科学者たちがChatGPTに研究論文の一部を書かせ、その論文が後にネイチャー誌などの著名な科学雑誌に掲載されたというニュースがあった。科学者がテクノロジーの限界を試したとも言えるこの出来事を受けて、AIの活用を巡る賛否両論が巻き起こった。
賛成派は、ChatGPTのようなテクノロジーを人間の進歩の次なるステップと見なしている。それが科学それ自体をさらに効率化し、人間の労働量をさらに減らして生活を快適にするはずだと考えている。
反対派は、AIが責任を持てないことを指摘している。考えてみてほしい。プログラムが間違った結論に達した場合、あるいはそのアルゴリズムが十分に成熟していない場合、どう責任を取らせればいいのか。
この責任の問題は、何かがうまくいかなかったときに限った話ではない。適切な引用のないAI生成文章は盗作と見なされる可能性があると、サイエンス誌系列で編集長を務めるホールデン・ソープ氏は指摘している。そのため、すでにChatGPTを著者として記載した論文がいくつか発表されていることを受け、出版社は規制の推進を急いでいる。
実際、ChatGPTを共著者とする論文がネイチャー誌に掲載された後、ネイチャー誌とサイエンス誌の編集長は、「ChatGPTは著者としての基準を満たしていない」と結論付けている。このような出版物には法的責任が伴うため、AIは論外だという。
この「AIは著者たりえるのか」といった論争における核心的な問題は、ジャーナルの編集者にとって、どのぐらいの論文が、あるいは一つの論文の中でどの程度がChatGPTによって生成されたのか、もはや確信が持てないことである。科学実験においては、おそらく今でも人間による研究が必要だ。しかし、総説論文の著者がChatGPTを利用したのは、執筆過程でそれが重要な役割を果たしたからだろう。
ある生物医学の研究者は、ChatGPTを使って医薬品研究を行い、これまで見逃していた創薬候補の化学物質を特定できた。生物医学の分野では、AIの力を借りて爆発的な進歩を遂げる新時代が到来を告げている。
しかし、AIのデータが人類を誤った方向に導いているときに、研究者がどうやってそれを知ることができるだろうか。データの背後に潜むアルゴリズムにあえて挑戦する人はいるだろうか。ところが、現在直面している問題はこれだけではない。どうやらAIは、ロボットとして、あるいはアプリを通じて機能することで、医療従事者に取って代わりつつあるようなのだ。
AIが医療従事者を代替すべきではない
患者の診療にChatGPTの活用を検討しているクリニックがある。診断にChatGPTを導入したメンタルヘルスクリニックでは、より良いパフォーマンスを得ることができ、それでいて、多くの患者はロボットと話していることに気づかなかったという。
AIが看護師や医師助手に取って代わる可能性さえある。さらには、AIと遠隔医療が組み合わされば、人々は病院に行く必要さえなくなるかもしれない。ヘルスケアの未来は、急速に変化する可能性がある。スマホアプリを開いて、チャットボットと会話し、症状を伝えるだけで、処方箋を出してくれるかもしれない。しかし、ここには対面でのやりとりを通して培われる一定レベルの信頼関係はない。
また、GPTを利用したAIロボットは、精神疾患患者やリハビリ中の患者など、リスクの高い患者の治療において、モニタリングや治療管理、検診、リスク評価、必要に応じた処置などを、医師に代わって行うことができる。しかし、医療分野にAIを導入する際にも、先ほどと同様に責任の問題が発生する。
しかも、医療において、これはより大きな問題だ。間違った処方や投薬量によって、患者が合併症を引き起こした場合、誰が責任を取るのか。AIに従っただけの医師を責めることはできず、ただのプログラムでしかないAIを責めるわけにもいかない。そんなことでは、いったい誰に責任を問えば良いのか。
AIが安全であると人々が感じるためには、厳格な責任規定を設けて自由を制限する必要がある。一方で、より自由な操作と学習こそが、プログラムを向上させる。どうしようもないジレンマのように思える。しかし、問題の核心は、「AIやロボットに人間の世話をさせるべきか否か」というところにある。
AIの能力が飛躍的に向上しているというのに、なぜまだ医学部は学生を教育しているのだろうか。そのことを考えるべきだ。将来、AIが電力を失って動かなくなった時、免許を持った医師は、患者を治療する方法をまだ知っているだろうか。私たちはいったい、どの程度までAIに依存するようになるのだろうか。
人類は岐路に差し掛かっている
AIには多くの可能性がある。私たちの未来の一部分となることは間違いない。しかし、医療やヘルスケアにおいて、AIにより重要な役割を与えてしまったらどうだろう。健康や幸福についての私たちの理解に、より強力な影響を及ぼすことになりなかねない。AIが私たちの身体を変化させることさえありうる。
AIが至る所で活用されるようになれば、人間はあらゆる面で愚かになり、単純化していくのではないだろうか。やがて、子どもたちは親を忘れ、チャットボットを開いたタブレットだけが話し相手になる。風邪のようなありふれた症状を緩和する方法も、忘れ去られてしまうかもしれない。作文などの基本的なタスクは、過去のものとなるだろう。そうなれば、人類の弱体化は避けられない。テクノロジーが高度に発達し、意識で直接ロボットを操作できるようになった私たちは、エイリアンのような長い手足と膨らんだ頭で生きていくのだろうか。
AIが人間の思考を模倣し、人間のような言葉を発するようになった時、私たちはいわば、人間の頭脳がむき出しになった状態を目の当たりにすることになる。AIも人間の頭脳も、どちらも情報処理の機械だ。コンピュータは十分な量のデータを集めれば、高度なアルゴリズムを働かせて、人間のような思考や反応を生み出すことができる。したがって、ChatGPTやAIは、人間によって使い込まれていけば、それだけより人間らしくなっていく。最終的には人類よりも賢くなるかもしれない。
その時、何が人類を人類たらしめるのだろうか。
私たちは、チェスや囲碁で、スーパーコンピューターが人間のチャンピオンを倒すのを見てきた。そして今や、創造行為や感情表現、人との交流、芸術表現など、人類が純粋に誇れる分野にまでAIが登場している。
今、私たち人類は、自分たちの知恵がどこから来るのか、もっと深く考える必要がある。私たちのインスピレーションは、無数に集積された単なるデータから生まれてくるのだろうか。AIやコンピュータは、人間が入力したデータや、データの海から情報を得る。私たちもこれと同じように、ある種の「源泉」からアイデアを得ているのではないだろうか。なぜ人は、それまでの経験や知識とは一見何の関係もないようなインスピレーションや、創造的なアイデアを得ることができるのだろうか。
AIやスーパーコンピューターの脅威は、単に雇用が奪われるかどうかではない。人間の思考力の低下という問題すらも超えている。制御されることのないAI技術の根本的な脅威は、人類と人類を創造した存在とのつながりを断ち切ることにある。技術の進歩に伴って、人々はデジタルの神々を構築し、それを仰ぎ見る対象としている。AIやロボットによって生活を向上させることができるのは、ひとつの良い側面かもしない。しかし、AIの使用が人間の思考に置き換わるという、悪い側面を忘れてはいけない。
いかに人間の精神性を守るかということが、喫緊の課題だ。私たちはいかにして、神聖な存在との繋がりを維持すれば良いのだろうか。人間は単なる肉と骨の塊ではない。単なる部品で構成された機械とは違う。
人類が長きにわたり直面してきた懸案にとって、ChatGPTのようなAI技術の発展がその転換点となる。人と神との繋がりが断ち切られ、人生の真の意味が失われてしまうかもしれない。このまま底なしのテクノロジーの穴に落ちていくのか、それとも、人類と神との繋がりを取り持つ伝統の道へと回帰すべきなのか。私たちは選択を迫られている。
最後に、次の文章の紹介をもって、本稿を締めたいと思う。読者の皆様の思索を深めるものとなれば幸いだ。
この記事で示された見解は著者の意見であり、必ずしもエポックタイムズの見解を反映するものではありません。
ご利用上の不明点は ヘルプセンター にお問い合わせください。