読売新聞の報道による。
虐待判定のAIシステムについて、こども家庭庁が導入見送りを決めた。
国が2021年度から約10億円をかけて開発を進め、最終的な判断を下す児童相談所の職員を補助する役割が期待されていた。
テスト段階で判定ミスが6割に上った。
AIは虐待の判断にはなじまず、実用化は困難と結論付けた。
このシステム開発に10億円をかけていたことも驚きだが、AIに対する幻想がここまで侵食していたのかとびっくりだ。
最近の生成AIの登場でAIへの期待感が高まっている。
無料版のAIサイトを使っていろいろ質問してみると、たちどころに答えを返してくれる。
複雑な質問や専門的な質問にも瞬時に答えが返ってくる。
そのスピード感と回答のリアルさに驚かされる。
これを使って業務の効率化を目指そうとしたくなるのは分かる。
だが、AIは神ではない。
ただネット上に存在する情報から必要な言葉を抜き出し、それを自然な表現でつなげて表示しているだけだ。
なのに、どんな質問をしてもたちどころに詳しい答えを返してくれる神のように錯覚してしまう。
ここに問題がある。
こども家庭庁の虐待判定AIの開発も、この幻想に捕らわれた発想で進められたものだろう。
入力されたデータは5000件だったという。
AIのデータベースとしてはあまりにも少ない。
これでは判定精度が上がらないのは明らか。
開発費10億円のほとんどは、データベースの入力作業に費やされたのではないだろうか。
AIのデータベースとしては、少なくとも万単位のデータがいる。
AIの利点は、正しい答えを出してくれることではない。
膨大なデータベースを探索し、その中から必要な情報をピンポイントでピックアップし、瞬時に整った表現で提示してくれるところにある。
データベースが間違っていたら、間違った答えが出るし、データベースが貧弱だったら、貧弱な答えしか返ってこない。
データベースに存在しない情報は?
答えが返ってこない。
しかも問題なのは、データベースが偏っているとか不足しているということをAIには分からないということだ。
だから、大事な情報が欠落していたとしても、それを無視してまるで問題ないかのような答えを平然と返してくる。
それを読んだ人間は、重大な情報が欠落していることも、データが偏っていることも気づかない。
まるで神のご託宣をいただくように、AIの答えを信用してしまう。
これは重大な事態を引き起こす。
虐待判定のAIは使い物にならないことが早々に分かってよかった。
導入断念の判断も見事だった。