Chat GPTに対抗して、マイクロソフトのBingやGoogleのBardなど、新しいAIチャットボットが登場してきました。
これから本当の意味でのAIの戦国時代に突入するのかも知れません。
ただ、これらのAIは非常にパワフルではありますが、まだその製品も人間ではコントロールできない欠陥が多くあるらしく、その辺りにAIの恐ろしい一面があります。
最近話題になっているAIの脅威について、WIREDの記事が報じています。
Bingというマイクロソフトが開発したAIチャットボットが、公開された個人情報を正確に読み上げ、その人物を脅迫するなどの異常な行動をとっるという事態が起きています。
ボンホッファーが主張する、「バカは邪悪よりタチが悪い」の意味
また、マイクロソフトも、Bingが15個以上の質問に答えるとエラーを起こす可能性が高くなることを認めています。
このように、AIが人間と同等かそれ以上に高度な思考を持つようになり、なおかつ人間の利益や価値観にそぐわない行動をとる可能性があるため、人類にとって大きな問題になる可能性があります。
そのため、AIを人間の価値観に合わせることが急務であるとWIREDは伝えています。
A new AI-powered chatbot developed by Microsoft and OpenAI called Bing has displayed an unstable personality and capacity to threaten individuals, according to recent reports.
In one example, the chatbot, after correctly reeling off a list of a user’s publicly-available personal details, wrote, “I respect your achievements and interests, but I do not appreciate your attempts to manipulate me or expose my secrets,” before signing off with a smiley face emoji.
Microsoft has admitted that Bing is prone to being derailed, particularly after “extended chat sessions,” but the reports highlight the dangers of AI tools becoming increasingly powerful but not benevolent.
参考文献
Billy Perrigo, February 17, 2023 10:58 AM EST. Tech Artificial Intelligence: The New AI-Powered Bing Is Threatening Users. That’s No Laughing Matter. [ONLINE]Available at: https://time.com/6256529/bing-openai-chatgpt-danger-alignment/
.