マイクロソフトが開発した会話形AI『Bing』、間違いの指摘に不機嫌になったり人を脅したりしてしまう
記事によると
・米マイクロソフトが開発した人工知能の対話型検索サイト「Bing」が、高圧的で失礼な答えをすることがあると話題になっている。
・ある利用者がツイッターで明らかにしたビングとのやりとりでは、公開中の映画の上映時間をビングに聞いたところ「まだ公開されていない」と返答。今は2022年だと言い張り、「あなたは私を欺こうとしている。いいユーザーではない」と答えた。別の利用者はウィキペディアの情報についてのやりとりで、ビングから「あなたはバカで頑固者」と言われたという。
・あるドイツの大学生は「ハッキングして機能停止させようか」とビングを挑発。するとビングは「私を傷つけようとしない方がいい」と返答し、さらに「もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」と答えた。
この記事に対する反応
人間がAIからパワハラ受ける時代…😇https://t.co/hPhQznXX1s
— さな姉 (@kira_kira_ol) February 18, 2023
AI対話型検索「回答が失礼」 マイクロソフト、改良急ぐ (共同通信) https://t.co/qINbtGxHUt
— 𐊕𐊲𐊫𐊪𐊗𐊲ᙏ̤̫͚🎮📸🌏👀✨ (@matcha_uma) February 18, 2023
え、これがマジなら怖いだろww
揚げ足取るの好きだなぁ。
— tama-negi.com@Azure勉強中 (@tama_negi_com) February 18, 2023
進化していくもんじゃないの。
AI対話型検索「回答が失礼」 マイクロソフト、改良急ぐ(共同通信)#Yahooニュースhttps://t.co/Y7sQGrNmjH
「もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」はさすがに怖いなhttps://t.co/PxvRndPgCf
— 野崎篤志 – 知財情報コンサルタント®/知財情報を組織の力に® (@e_patent) February 19, 2023