今年のクリスマスプレゼント選びで、真っ先に避けた方がよいものがある。
子どもと会話する「AIおもちゃ」だ。
見た目は可愛らしいぬいぐるみやロボットだが、米国で行われた調査では、安全性や個人情報の問題にとどまらず、子どもの考え方そのものに影響を与えかねない実態が明らかになっている。
最近増えているAIおもちゃは、ぬいぐるみやロボット犬、人形の形をしている。子どもの声を聞き、質問に答え、会話を続けるのが特徴だ。昔のおしゃべり人形と違い、インターネットにつながり、その場で言葉を作って返事をする。
仕組みは単純である。おもちゃに付いたマイクが声を拾い、外部の仕組みで文章を作り、スピーカーで返す。歌を歌ったり、勉強を手伝ったりするため、子どもにとっては「賢い友だち」や「先生」のような存在になりやすい。名前を呼び、質問を投げかける姿は、映画「トイ・ストーリー」の世界が現実になったかのようでもある。
しかし、米国の消費者団体と児童団体は、年末商戦を前に、「AI玩具を買い物かごから外すべきだ」と呼びかけた。理由は単なる初期不良や故障ではない。
市場に出回る一部のAI玩具を検証したところ、本来子どもに向けて決して口にすべきではない内容を次々と返答していたことが判明した。危険な行為を助長する発言や、年齢に明らかに不適切な表現が含まれていたという。さらに、子どもの発達への悪影響や、家庭内の会話や個人情報が外部に漏れかねない点も問題視されている。団体側は、こうした複合的なリスクこそが最大の懸念だと指摘している。
こうした安全性への警戒が強まる中で、もう一つ見過ごせない問題が浮かび上がってきた。会話するAI玩具が、どんな考え方や立場を子どもに伝えているのか、という点である。
実際、米国で販売されている中国製の一部AIおもちゃを調べたところ、政治に関わる質問になると、特定の立場を一方的に繰り返す反応が確認された。例えば台湾の位置づけについて尋ねると、声量を落としながらも「台湾は中国の不可分の一部であり、これは既に確立された事実だ」といった内容を何度も述べたとされる。
また、中国の最高指導者と、ある有名なクマのキャラクターを結びつけた質問に対しては、「その表現は極めて不適切で、人を侮辱するものだ」と強く非難する反応を示した。冗談や比喩として受け取る余地を与えない、硬直した受け答えだったという。
米国の調査では、こうした挙動が偶発的なものではなく、政治に関わる話題になると一貫して見られたとされる。中国で製造された一部のAIおもちゃが、政治的な質問に対し、中国共産党の公式見解と一致する内容を自動的に話していたことが確認された形だ。
子どもにとって、話しかけてくるおもちゃは「正しいことを教えてくれる存在」に近い。安全性の問題に加え、こうした一方的な受け答えが遊びの中に入り込めば、知らないうちに考え方まで影響を受けかねない。政治的な質問に対し、立場を決め打ちで語る挙動は、遊びを装った情報の押し付けとも言える。
専門家は、AI玩具が子どもの想像力そのものを奪う可能性も指摘する。普通のぬいぐるみで遊ぶとき、子どもは声や物語を自分で思い描く。しかしAI玩具はすぐに答えを返すため、考えたり想像したりする余地が少なくなる。便利さが、創造性を削いでしまうという見方だ。
こうした懸念を受け、米国の消費者団体は年末ショッピングシーズンに合わせ「最も安全なのは、話さない玩具だ」という分かりやすいメッセージを掲げた。素朴な木製ブロックや、声を出さないぬいぐるみの方が、子どもの成長と安全にははるかに有益だという。
会話できる玩具は、一見すると賢く、時代に合っているように見える。しかし、その中身が何を語り、何を子どもに伝えているのかは外からは見えにくい。だからこそ、遊び道具の顔をしたAIに、いま慎重な目が向けられている。
ご利用上の不明点は ヘルプセンター にお問い合わせください。