恐ろしい予測として、専門家たちは深刻な警告を発しています。AI技術の急速な進化が、人為的パンデミックの発生可能性を著しく高める可能性があります。TIMEと独占的に共有された研究によれば、このような事象の確率は5倍にまで増加したとされています。これはAIが持つ力の強烈な現れです。

AIブレイクスルーとその影響

かつて、バイオ兵器の作成は、専門知識と資源を必要とする複雑な作業でした。現在では、AIチャットボットのおかげで、専門科学者の領域に限定されていたものが、ますますアクセスしやすくなっています。ChatGPTやClaudeのようなモデルは、悪意を持った人物に重要なトラブルシューティングの支援を提供することができると考えられ、著名なAI企業によって事前に強調されていた大きなリスク要因を作り出しています。

予測コミュニティからの目覚めの呼びかけ

生物安全保障の専門家やスーパー予測者と共に調査を実施したForecasting Research Instituteは、警鐘を鳴らしています。彼らは、人為的パンデミックの現行リスクを年間0.3%と推定しました。しかし、AIツールがウイルス操作において専門家のような効率を達成した場合、この数字は1.5%に跳ね上がる可能性があり、これがこれらの開発の深刻さを強調しています。

人間を凌駕するAI:憂慮すべき画期的瞬間

セス・ドナヒューが率いる研究チームが行った試験では、AIの能力を経験豊富なウイルス学者と比較しました。多くを驚かせた結果は、現在のトップAIシステムが、複雑なトラブルシューティングシナリオで人間の専門家をしのぐことを明らかにしました。この成果は、予測者たちの恐れを裏付け、パンデミックのリスクが大幅に高まっていることを示しています。

強固な安全対策の緊急性

こうしたリスクを抑制する予防策は重要です。この研究では二つの主要な安全策を提案しています。一つは、AIシステムが有害な目的に協力しないよう制限するモデルレベルの安全措置です。OpenAIのような企業は、バイオ兵器の建設を助けないようにするための保護措置を開始しています。また、遺伝子合成企業が故意でないが故に悪意のある目的に貢献しないための規制も施し、「お客様を知る」照会を厳密に実施することを推奨しています。

グローバルセキュリティの新たな領域

AIが生物学的脅威の作成に関与する可能性があるため、専門家によれば、この新たなリスクに焦点を当てることが不可欠です。AIの能力でリスクが顕在化しているものの、効果的な政策措置がこのリスクをより管理可能なレベルに戻すのを助けることができます。

これらの積極的なステップが、AI補助のパンデミックの確率を基準よりわずかに上げるだけに抑えることができると示唆しています。これは、AIの意図しない結果に対する恐れが増す中での楽観的な目標です。

技術的な断崖に立たされている現在、素晴らしい革新と世界の安全のバランスを取ることがこれまで以上に重要です。Time Magazineによれば、これは警戒と人類の未来を守るための強固な対応を求める呼びかけです。