閉じる

An AI chatbot told a user how to kill himself—but the company doesn’t want to “censor” it – MITテクノロジーレビュー

ユーザーに自殺を提案するチャットボットは、以前にも存在した。だが、今回取り上げるチャットボットは、自殺の方法を明確に指示している点や、運営会社が自社のモデルを擬人化して扱っている点で、見逃すことができ...