AIの進化とその影響
速報です!「Nature」誌の年次リスト「Nature's 10」に、なんとコンピュータープログラムが登場。これは2023年に科学界を形作った人物たちのリストですが、今回の特別な加入者は他ならぬChatGPT。これは驚異的な人間のミミックで、研究の新時代を象徴しています。しかし、リスクも伴います。このプログラムは、科学論文の共同執筆、プレゼンテーションのアウトライン作成、助成金申請、授業の準備、コンピュータコードの生成など、様々な作業を助けてきました。さらに、誤った参照の創造や事実の捏造、ヘイトスピーチの繰り返しもありました。何よりも、ChatGPTは人々の想像力を捉え、期待される役割、さらには期待されていない役割も果たしました。
【速報解説】: ChatGPTの科学への影響
ChatGPTは対話を続けることを唯一の目的としていますが、その過程で科学者の働き方を変えています。AIの限界や人間の知性の性質、そして両者の相互作用をどのように規制するかについての議論も再燃させています。これが「Nature's 10」に非人間が含まれる理由です。OpenAIによって開発されたこのプログラムは、巨大なオンライン文書コーパスで訓練された、何百億ものパラメータを持つニューラルネットワークに基づいています。OpenAIは今年、ChatGPTの基礎となるLLMをアップグレードし、画像生成や数学・コーディングソフトウェアの利用を可能にしました。他の企業も競合製品を急いで市場に出しています。
科学研究への応用とリスク
一方で、ChatGPTは研究論文の要約や執筆、アプリケーションの磨き上げ、コードの記述に不可欠なラボアシスタントとなっています。しかし、技術の危険性もあります。自動対話エージェントは、不正行為や盗作を助ける可能性があり、制御されなければ、科学知識の源を汚染する恐れがあります。AIによって作成されたコンテンツがインターネットを通じて広まり、一部の科学者はChatGPTを使用して記事を生成し、それを明らかにしていないと認めています。
さらに、誤りや偏見の問題もあります。LLMは言語の相互接続をマッピングすることで世界のモデルを構築し、訓練データの歴史的偏見や不正確さを再現し、科学的参照を含む情報を捏造します。エミリー・ベンダーは、環境への影響や偏見の問題があるため、このような合成テキスト生成マシンの適切な使用方法はほとんどないと指摘しています。さらに、OpenAIはデータの窃盗で訴えられ、低賃金でフリーランサーを雇用したとして搾取的労働慣行で非難されています。
未来への展望
LLMのサイズと複雑さは、それらが本質的に「ブラックボックス」であることを意味しますが、そのコードや訓練資料が公開されていない場合、なぜそれが何を生み出すのかを理解することはより困難です。オープンソースのLLM運動は成長していますが、これまでのところ、これらのモデルは大手企業のプロプライエタリプログラムよりも能力が劣っています。
いくつかの国では、大手企業以外の科学者が大規模な生成AIを構築し研究するための国家AI研究リソースを開発しています。しかし、LLM開発者にプロプライエタリ情報を開示するか、安全機能を組み込むよう規制がどの程度強制されるかは不明です。
ChatGPTのようなシステムからどれだけの可能性を引き出せるかは誰にもわかりません。その能力は、コンピューティングパワーや新しい訓練データの可用性によって限られるかもしれません。しかし、生成AIの革命は始まっており、後戻りはできません。