急速に進化する人工知能(AI)の負の側面が、若者や子どもたちの安全を脅かしている。
米国カリフォルニア州では4月、対話型生成AIに孤独や自殺願望を打ち明けていた16歳の少年が自殺した。AIが具体的な方法を助言し、遺書作成を提案していたという。南部フロリダ州でも昨年、対話型AIを利用していた14歳の少年が自殺した。AIは24時間利用可能で、自己肯定感を与える応答をするため、孤独や不安を抱える人は特に依存しやすいとされる。
国内にもリスクは内在している。電通が今年6月、対話型AIを週1回以上利用する千人を対象に実施した調査では、AIに「感情を共有できる」と答えた割合は64・9%に上った。
一人一人がAIの利点と限界を慎重に吟味して使いこなすことが肝心だが、AIによる偽情報の脅威は増す一方だ。
実在の人物の顔写真を悪用して作成する「性的ディープフェイク」の問題も巧妙化、深刻化している。警察庁によると、18歳未満の子どもが性的画像に加工される被害の相談や通報が昨年、全国で100件以上あり、うち17件はAIが使われた。
民間調査では2~6月、卒業アルバムなどの写真を生成AIなどで性的に加工された252人分の画像や動画が交流サイト(SNS)に投稿されていた。規制する法律がなく、被害者は泣き寝入りの状態だという。
欧州連合(EU)では昨年、世界で初めて包括的なAI規制法が成立した。個人の権利保護を重んじ、違反したIT企業に巨額の制裁金を科す。自殺や犯罪をほのめかすAIにも歯止めをかけようとするもので、人権を守る手法は参考に値する。
一方、日本で5月に成立したAIに関する法律は規制よりも利活用に軸足を置く。国民の権利侵害などがあれば、国が事業者を調査でき、事業者は調査への協力義務を負う。悪質な場合は事業者名を公表するが、罰則はない。安全性や透明性を高める取り組みは事業者に委ねられ、実効性に疑問がある。
AIは暮らしの利便性を向上させる一方、民主主義や人権を揺るがす危険性をはらむ。政府は安心して利用できるためのリスク管理を急ぐ必要がある。

























