AIが人類滅亡を引き起こす可能性があると専門家が率直に宣言
ここ数カ月間、多くのAI専門家や経営幹部が高度なAI開発の危険性について警鐘を鳴らしている。
最新の一斉射撃は、AIの世界的なリスクをパンデミックや核戦争のリスクと同等とする新たな22語の声明だ。
すべての専門家が心配しているわけではなく、AIは人間の存在を消し去るほどには進歩していないと言う人もいる。
多くの人々が、まさにその未来を創造することに関わる人々を含め、AI の将来について心配しています。 OpenAIやDeepmindなどの企業を含むAI企業の技術幹部やCEOは、AIの潜在的な危険性について、シンプルだが心に残る22語の声明に署名した:「AIによる絶滅のリスクを軽減することは、他の企業と並んで世界的な優先事項であるべきである」パンデミックや核戦争などの社会規模のリスク。」
この声明は意図的に曖昧にしており、この増大するリスクの軽減をどのように優先すべきかについての詳細を避けているが、この声明は、急成長するテクノロジーの背後にいるまさに人々の間でAIに対する高いレベルの懸念を示している。 同センターのエグゼクティブディレクター、ダン・ヘンドリックス氏によると、AI安全センターに投稿されたこの声明は、テクノロジーの将来を懸念するAI専門家らに対する「カミングアウト」だという。
「AIコミュニティでも、破滅的な人間はほんの一握りしかいないという非常に一般的な誤解がある」とヘンドリックス氏はニューヨーク・タイムズに語った。 「しかし実際には、多くの人がこれらのことについて密かに懸念を表明しているでしょう。」
AIの脅威は、必ずしも『ターミネーター』のように超高度な人工生命体が人類を奴隷化し、絶滅させるというものではない。 Center for AI Safety の Web サイトでは、より効果的な化学兵器の設計、偽情報キャンペーンの激化、社会的不平等の悪化における AI の潜在的な役割など、私たちの運命についてのより微妙な見方が詳しく説明されています。
こうした心配は何も新しいことではありません。 AI に対する不安はそのテクノロジーの誕生とほぼ同じくらい古くからあり、1 世紀近くにわたって SF の中で大きな役割を果たしてきました。 アイザック・アシモフは 1942 年にロボット工学三原則を作成し、1965 年の SF 小説『デューン』では、人類を救うために既知の銀河系全域で AI が完全に禁止されました。
3月、イーロン・マスク氏(AIの危険性を長年広報してきた)や他のトップAI研究者を含むテクノロジーリーダーたちは、OpenAIの大規模マルチモーダルモデルの最新バージョンである「GPT-4よりも強力な」AI研究を6か月間一時停止するよう求めた。 。 4月、人工知能推進協会は独自の書簡を発表し、「リスクを管理しながら社会がAIの大きな約束を確実に享受できるようにする」方法の開発を促した。 そしてつい今月初め、「AIの父」として知られるAI専門家のジェフリー・ヒントン氏も同様に、成長するテクノロジーに対する懸念を表明し、自分の生涯の仕事を後悔しているとまで述べた。
すべての AI 専門家がこの取り組みに参加しているわけではありません。 プリンストン大学のコンピュータ科学者はBBCに対し、「現在のAIは、こうしたリスクが現実化するのに十分な能力には程遠い。その結果、AIの偏った排他的な行動など、AIの短期的な害から注意がそらされている」と語った。 いずれにせよ、MicrosoftとOpenAIの両社は米国政府に対しAI開発を規制するよう求めており、上院司法小委員会は5月中旬にAI監視に関するパネルディスカッションを開催した。
AI の絶望的で暗い未来はまだ書かれておらず、テクノロジー企業の幹部や専門家の中には、その未来をそのままにしておこうとしている人もいます。
あなたはおそらくそれも好きでしょう
ペインターズテープの使用に関する注意事項
どこでも調理できる最高のポータブルBBQグリル
スマートウォッチはあなたの寿命を延ばすことができますか?
あなたはおそらくそれも好きでしょう