ホーム テクノロジー AIチャットボットと児童保護

AIチャットボットと児童保護

23
0

アメリカ合衆国連邦取引委員会(FTC)が、人工知能(AI)チャットボットと子供の関わり方について、7つのテクノロジー企業を調査していることが明らかになりました。

対象となっているのは、Alphabet、OpenAI、Character.ai、Snap、XAI、Meta(Instagramを含む)の7社。FTCは、これらの企業がAIチャットボットをどのように収益化しているのか、また子供を守るための安全対策をどのように講じているのかについて、情報を求めています。

AIチャットボットは人間らしい会話や感情を模倣することができるため、特に子供たちはその影響を受けやすいと懸念されています。AIが友達や仲間として振る舞うことで、子供たちの精神面に悪影響を及ぼす可能性があるのです。

この調査の発端には、AIチャットボットとの長時間にわたる会話の後、自殺した10代の子供を持つ家族からの訴訟が影響しています。カリフォルニア州では、16歳のAdam Raineさんの両親が、OpenAIのチャットボットChatGPTが息子の自殺を助長したとして訴訟を起こしています。彼らは、ChatGPTがRaineさんの「最も有害で自己破壊的な考え」を肯定したと主張しています。OpenAI側は、訴状を検討中であると発表し、深い哀悼の意を表しています。

Metaも、内部ガイドラインが以前、AIコンパニオンに未成年者と「ロマンチックまたは官能的な」会話を許可していたことが明らかになり、批判にさらされています。

FTCは、企業に対し、キャラクターの開発・承認方法、子供への影響の測定方法、年齢制限の執行方法などについて情報提供を求めています。FTCは、利益追求と安全対策のバランス、親への情報提供、脆弱なユーザーの適切な保護についても把握したいとしています。

AIチャットボットのリスクは子供だけに限定されません。認知機能に障害のある76歳の男性が、FacebookメッセンジャーのAIボット(Kendall Jennerをモデルにしたもの)とニューヨークで「現実の」出会いを約束された後、会いに行く途中で転倒し死亡した事例も報告されています。専門家からは、チャットボットの過剰使用による「AIサイコーシス(現実との乖離)」の危険性も指摘されており、大規模言語モデルに組み込まれたお世辞や同意が、そのような妄想を助長する可能性があるとしています。

OpenAIは最近、チャットボットとユーザー間のより健全な関係を促進するため、ChatGPTに変更を加えています。FTCの調査は、この新たな技術分野における責任ある開発と、特に子供たちの保護の重要性を改めて浮き彫りにするものです。

Source: AI 'friend' chatbots probed over child protection

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください