安全性と倫理上の懸念
グーグルが公表したAI Co-Scientistに関する詳細レポートでは、システムの限界を認めた上で、非倫理的な研究目的や悪意あるユーザーによる利用を防ぐための技術的なセーフガードが必要であると述べられている。今月、グーグルはGeminiの悪用をサイバー犯罪者が狙っていると警告し、機密性の高い研究クエリが不正に使われる可能性を示唆したばかりだ。AI Co-Scientistには現段階でいくつかの安全策が備わっているが、最終的にはさらなる対策が不可欠だとしている。それでもなお、このシステムを試験運用した科学者たちは、その可能性に大きな期待を寄せている。
Imperial College Londonの生命科学部およびFleming Initiativeで実験を共同主導してきたティアゴ・ディアス・ダ・コスタは「私たちの研究結果は、AIが利用可能な証拠を統合し、もっとも重要な質問や実験デザインに導ける可能性を示しています。もしシステムが期待どおりに機能すれば、これはまさにゲームチェンジャーになるでしょう。『行き止まり』を排除でき、驚くべき速さで研究を進められるようになるかもしれません」と語っている。
(forbes.com 原文)