産経新聞の報道による。
小林製薬の紅麹サプリをめぐる健康被害の問題。
厚労省が、プベルル酸が腎臓に悪影響を及ぼすことを確認したと発表。
先の立ち入り検査で、大阪工場の種菌培養室や和歌山工場の乾燥室、培養タンクなどからアオカビを採取。
小林製薬からも任意でサンプルの提供を受け、国立医薬品食品衛生研究所で調査。
ラットへの投与実験を行ったところ、腎臓の尿細管が壊死するなどの所見が見られたという。
これは国が動物実験をした結果を厚労省が発表したものだ。
ここに小林製薬の存在感はない。
プベルル酸の存在を逸早く公表したのも厚労省だった。
小林製薬は当初、プベルル酸の存在を秘匿しており、「未知の物質」としか明かしていなかった。
ところが、小林製薬の記者会見の最中に、厚労省がプベルル酸の存在を公表し、小林製薬側がそれを追認せざるを得なくなった。
小林製薬に実態解明を任せていたら、いつになるか分からないとのもどかしさが感じられる。
今回も同じだろう。
もしかしたら、小林製薬の技術レベルを超えた問題になっており、一企業の案件に矮小化せず、情報を広く公開し、世界の知見を総動員して早期解明につなげるべきなのかもしれない。
2024年05月29日
2024年05月08日
生成AIと著作権の悲劇
生成AIの隆盛で、著作権の問題がクローズアップされている。
AIはネット上の画像や文章を勝手に使って新たなコンテンツを生成するので、著作権侵害が簡単に起きてしまう。
生成AIが作成したニュース記事をアップしたサイトが、あるメディアに著作権侵害で訴えられたことがある。
なぜ著作権侵害になったかというと、元の記事は非常にオリジナリティの高い内容を含んでおり、他のメディアに同じ情報がアップされるのはおかしいことが明らかだったからだ。
サイト運営者は、著作権を侵害しているという認識すらなかったようだ。
AIに勝手に記事を作成させていただけで、どこから情報を得てきたか知らなかった。
だが、そのことで知らぬ間に著作権侵害をしてしまっていたことになる。
著作権は、表現を守る権利だ。
つまり、文章や映像をそのままコピーして他に利用したら権利侵害となる。
しかし、オリジナルの内容を別の言葉と表現で発表した場合は、著作権の侵害にはならない。
著作権法は表現を守る法律であり、その内容やアイデアまで特定の権利者に独占させようとしていない。
問題になったAIによるニュース記事は、オリジナル記事の表現がそのまま使われている箇所がいくつかあったために、著作権侵害を訴えられた。
だったら、表現を一新し、同じ内容をまったく別の文章で再現したらどうか。
これを著作権侵害で訴えるのは難しいだろう。
となると、剽窃とか盗作とか模倣で訴えるしかない。
しかし、訴える側がこれを証明するのはハードルが高い。
生成AIが普及することで心配されるのは、これだ。
オリジナルコンテンツを勝手に利用され、好き勝手に改変され、別のコンテンツとして発表される。
著作権侵害だったら、まだわかりやすく話は早い。
これが剽窃、盗作、模倣、参照というレベルの利用だったら、どこまでオリジナルコンテンツの権利を主張できるか。
しかも、権利侵害しているのはAIであり、AIを利用して新しいコンテンツを作ろうとしている人は、権利侵害している意識すらない。
罪の意識なく、勝手に他人の権利侵害が横行することになる。
更に、問題なのは、ネット上によく似たコンテンツが複数存在した時、どれがオリジナルなのか分からなくなること。
AIによる生成画像の方がオリジナルより完成度が高いという現象は簡単に起きる。
AIならいろんな画像からいいとこどりできるからだ。
そうなると、オリジナルが必ずしも価値があると評価されなくなる。
むしろAI画像の方が美しいと好まれるかもしれない。
すると、AI画像が本物であり、オリジナルは劣化コピーと認識されかねない。
これは悲劇だ。
今後は、ネット上にAIコンテンツがあふれかえる事態が訪れる。
ネット上で見る画像はAI画像。
ネット上で読む文章もAI文章。
すると、新たに生成AIが作り上げるコンテンツも、ネット上にあふれかえるAIコンテンツを基に作られていくことになる。
いまは、人間が作った文章や画像を基にAIがコンテンツを作っている。
ところが、今後は、AIが作ったコンテンツを基に、更にAIが新しいコンテンツを再生産する。
AI技術の進展でコンテンツレベルはどんどん高くなる。
AIコンテンツだけで自己完結する世界の誕生だ。
ネット上では、人が作るようなオリジナルコンテンツはどんどん出番がなくなり、脇に追いやられる事態が起きるのだろうか。
AIはネット上の画像や文章を勝手に使って新たなコンテンツを生成するので、著作権侵害が簡単に起きてしまう。
生成AIが作成したニュース記事をアップしたサイトが、あるメディアに著作権侵害で訴えられたことがある。
なぜ著作権侵害になったかというと、元の記事は非常にオリジナリティの高い内容を含んでおり、他のメディアに同じ情報がアップされるのはおかしいことが明らかだったからだ。
サイト運営者は、著作権を侵害しているという認識すらなかったようだ。
AIに勝手に記事を作成させていただけで、どこから情報を得てきたか知らなかった。
だが、そのことで知らぬ間に著作権侵害をしてしまっていたことになる。
著作権は、表現を守る権利だ。
つまり、文章や映像をそのままコピーして他に利用したら権利侵害となる。
しかし、オリジナルの内容を別の言葉と表現で発表した場合は、著作権の侵害にはならない。
著作権法は表現を守る法律であり、その内容やアイデアまで特定の権利者に独占させようとしていない。
問題になったAIによるニュース記事は、オリジナル記事の表現がそのまま使われている箇所がいくつかあったために、著作権侵害を訴えられた。
だったら、表現を一新し、同じ内容をまったく別の文章で再現したらどうか。
これを著作権侵害で訴えるのは難しいだろう。
となると、剽窃とか盗作とか模倣で訴えるしかない。
しかし、訴える側がこれを証明するのはハードルが高い。
生成AIが普及することで心配されるのは、これだ。
オリジナルコンテンツを勝手に利用され、好き勝手に改変され、別のコンテンツとして発表される。
著作権侵害だったら、まだわかりやすく話は早い。
これが剽窃、盗作、模倣、参照というレベルの利用だったら、どこまでオリジナルコンテンツの権利を主張できるか。
しかも、権利侵害しているのはAIであり、AIを利用して新しいコンテンツを作ろうとしている人は、権利侵害している意識すらない。
罪の意識なく、勝手に他人の権利侵害が横行することになる。
更に、問題なのは、ネット上によく似たコンテンツが複数存在した時、どれがオリジナルなのか分からなくなること。
AIによる生成画像の方がオリジナルより完成度が高いという現象は簡単に起きる。
AIならいろんな画像からいいとこどりできるからだ。
そうなると、オリジナルが必ずしも価値があると評価されなくなる。
むしろAI画像の方が美しいと好まれるかもしれない。
すると、AI画像が本物であり、オリジナルは劣化コピーと認識されかねない。
これは悲劇だ。
今後は、ネット上にAIコンテンツがあふれかえる事態が訪れる。
ネット上で見る画像はAI画像。
ネット上で読む文章もAI文章。
すると、新たに生成AIが作り上げるコンテンツも、ネット上にあふれかえるAIコンテンツを基に作られていくことになる。
いまは、人間が作った文章や画像を基にAIがコンテンツを作っている。
ところが、今後は、AIが作ったコンテンツを基に、更にAIが新しいコンテンツを再生産する。
AI技術の進展でコンテンツレベルはどんどん高くなる。
AIコンテンツだけで自己完結する世界の誕生だ。
ネット上では、人が作るようなオリジナルコンテンツはどんどん出番がなくなり、脇に追いやられる事態が起きるのだろうか。
AIによる画像生成の限界
有名人を使った偽広告を使った投資詐欺が問題化している。
有名人が実際にしゃべっているかのような音声と映像を流して、投資サイトに誘う。
いまや架空の動画や音声をAIで作るのは簡単になっている。
ついにここまで来たか、との印象だ。
だが、よく見ると、そのフェイク動画は作りが不完全。
あちこちに粗があり、それでフェイクだと分かる。
有名人が本人の声質でしゃべっているかのような映像。
口の動きも言葉に合わせてあり、よく作り込んでいる。
だが、違和感がある。
声やしぐさが単調だ。
人は言葉の意味に合わせて、語りにメリハリをつける。
意識しなくても、自然にそのようなしゃべりになる。
大事な言葉は声が大きくなるし、その時には目も大きくなり、しぐさも大きくなる。
フェイク映像は、声は一本調子だし、表情やしぐさも常にせわしなく動いているだけで、言葉の内容とリンクしていない。
もちろん、ディズニー映画のように、言葉の内容に合わせて表情やしぐさに変化をつけることはできるのだろうが、そこはヒトによる相当の手間と技術がいる。
動画ではなく、静止画の場合は、よりリアルなフェイク画像を作れる。
有名人の場合は、ネット上にいろんな画像がアップされているので、それらを使って、別の写真と組み合わせれば様々な画像が作れる。
顔の表情、肌や髪の毛の質感などは完璧だ。
だが、AIの弱点がある。
それは手の指に表れる。
手の表情は多彩でいろんな形がある。
しかし、手の多彩な写真は意外なことにネット上に豊富にない。
顔の写真はたくさんあるが、手の写真は意外に少ないのだ。
それで、生成AIは手の表情を再現するのが苦手なのだ。
AIは人間の指がどのような構造をしているかを理解しているわけではない。
画像として再現しようとするだけなので、よく似た写真から画像イメージだけを引っ張ってきて再生するだけ。
だから、あり得ない指の形になってしまう。
指の本数が多すぎたり、指の長さがおかしかったり、指があり得ない方向に曲がっていたり、ということが起きる。
これは、洋服の生成でも同じようなことが起きる。
色や質感やしわの様子はリアルに再現できる。
だが、洋服の構造的な形までは再現できない。
つまり、あり得ない形の洋服が画像の中に生成されてしまうのだ。
「この服、どうやって着るの?」という画像ができあがる。
画像に映り込む文字も、生成AIが苦手とする分野だ。
AIは文字も画像として処理する。
なので、それらしい模様は再現するが、文字として生成できない。
この世に存在しない文字列ができあがる。
技術の進歩は激しい。
いま未熟なレベルにあるとしても、あっという間にそれをクリアする時代が来るかもしれない。
すると、リアルとフェイクの違いが判別できない世の中になるのか。
有名人が実際にしゃべっているかのような音声と映像を流して、投資サイトに誘う。
いまや架空の動画や音声をAIで作るのは簡単になっている。
ついにここまで来たか、との印象だ。
だが、よく見ると、そのフェイク動画は作りが不完全。
あちこちに粗があり、それでフェイクだと分かる。
有名人が本人の声質でしゃべっているかのような映像。
口の動きも言葉に合わせてあり、よく作り込んでいる。
だが、違和感がある。
声やしぐさが単調だ。
人は言葉の意味に合わせて、語りにメリハリをつける。
意識しなくても、自然にそのようなしゃべりになる。
大事な言葉は声が大きくなるし、その時には目も大きくなり、しぐさも大きくなる。
フェイク映像は、声は一本調子だし、表情やしぐさも常にせわしなく動いているだけで、言葉の内容とリンクしていない。
もちろん、ディズニー映画のように、言葉の内容に合わせて表情やしぐさに変化をつけることはできるのだろうが、そこはヒトによる相当の手間と技術がいる。
動画ではなく、静止画の場合は、よりリアルなフェイク画像を作れる。
有名人の場合は、ネット上にいろんな画像がアップされているので、それらを使って、別の写真と組み合わせれば様々な画像が作れる。
顔の表情、肌や髪の毛の質感などは完璧だ。
だが、AIの弱点がある。
それは手の指に表れる。
手の表情は多彩でいろんな形がある。
しかし、手の多彩な写真は意外なことにネット上に豊富にない。
顔の写真はたくさんあるが、手の写真は意外に少ないのだ。
それで、生成AIは手の表情を再現するのが苦手なのだ。
AIは人間の指がどのような構造をしているかを理解しているわけではない。
画像として再現しようとするだけなので、よく似た写真から画像イメージだけを引っ張ってきて再生するだけ。
だから、あり得ない指の形になってしまう。
指の本数が多すぎたり、指の長さがおかしかったり、指があり得ない方向に曲がっていたり、ということが起きる。
これは、洋服の生成でも同じようなことが起きる。
色や質感やしわの様子はリアルに再現できる。
だが、洋服の構造的な形までは再現できない。
つまり、あり得ない形の洋服が画像の中に生成されてしまうのだ。
「この服、どうやって着るの?」という画像ができあがる。
画像に映り込む文字も、生成AIが苦手とする分野だ。
AIは文字も画像として処理する。
なので、それらしい模様は再現するが、文字として生成できない。
この世に存在しない文字列ができあがる。
技術の進歩は激しい。
いま未熟なレベルにあるとしても、あっという間にそれをクリアする時代が来るかもしれない。
すると、リアルとフェイクの違いが判別できない世の中になるのか。
生成AIの現在レベル
生成AIの登場で、これからのネット上の知的空間は劇的に変化しそうだ。
これからの仕事の仕方は激変する。
場合によっては、不要になる職種も出てきそうだ。
だが、現状の生成AIを使ってみて分かるのは、AIは、まだまだ実力不足との印象はぬぐえない。
生成AIに小学校レベルの文章題を解かせるとよくわかる。
なかなか正解を出してくれない。
少し込み入った内容になると、まったくダメだ。
AIの回答は、それらしい表現でいろんなことが書かれているが、すべて的外れででたらめ。
回答の矛盾点を指摘すると、直ちに否定して、頑固に自分の回答が正しいと言い張る。
それでも、おかしい点を理詰めで問い詰めようとすると、突然動きが停止して、「通信が切れました」となる。
たぶん、一定方向に無理やり誘導しようとする質問には対応しないようにプログラミングされているのかもしれない。
知識を問う質問は、もっとも利用できる。
単純な事実を確認するだけなら、自分でネット検索しても調べられるが、AIに代わりに調べさせ、まとまった文章として出力させれば、その後の作業がやりやすい。
例えば、「家康はいつどこでどんな理由で死んだか」という質問は、きめ細かく回答する。
たぶん、ネット上に家康の死については情報が豊富なので、AIはその中から必要な情報を抽出するだけでいい。
同じような調子で、歴史上の人物の死について調べてみた。
吉田茂、東郷平八郎、藤原道長、源頼朝・・・。
すると、いままで知らなかったことがいろいろ出てきて、「へーそうなんだ」となる。
だが、途中で、変なことに気づく。
回答のパターンがよく似てきたのだ。
自分で、人物の死について調べてみると、AIの回答がずいぶんいい加減だったことが分かる。
正しい情報も含まれているが、全然違う情報も。
中には、明らかに別の人物の情報が混入しているケースもあった。
生成AIは、言葉をつないでいるだけ。
ある言葉の次に可能性の高い言葉を探し出して並べているだけだ。
だから、道長の死について回答しているのに、途中から頼朝の情報に切り替わってつながってしまうということが起きる。
そう、AIは物を考えていない。
だから、人間が自分が考える代わりにAIに考えさせようとすると、酷い目に合う。
これは、自分が専門としている分野について質問してみるとよくわかる。
それらしい回答が返ってくるが、その内容は、当たり障りのない表面的な答えか、まったく別の内容を含んだでたらめであるか、どちらかだ。
専門家をうならせるほどの内容は出てこない。
これは当たり前だ。
AIはネット上の情報を拾ってきて文章の形に整形して表示しているだけだからだ。
ネット上にない情報は出力できないし、ネット上にない場合は、その周辺を探し回って同じような表現を見つけてつなげるだけ。
だから、でたらめの内容になる。
専門分野であれば、すぐにでたらめが分かるが、専門外の分野だと、それが見抜けない。
ここがAIに頼ることの危険だ。
AIは長い文章を要約してくれる。
4000文字の文章を読ませ、400文字で要約せよ、と指示すると、ものの数秒で出力してくれる。
要約文は、一見、筋が通っていて文章の趣旨を捉えているように見える。
だが、元の文章と読み比べてみると、まったく印象が違う。
AIは内容を理解して要約しているのではなく、言葉のつながりで文章を作っているだけ。
主要な単語をピックアップしてその前後を別の言葉でつないで、日本語として自然な文章を出力している。
文章として自然ではあっても、内容の信頼性はない。
これが、日本語としてギクシャクした表現になっていたら、誰でも疑わしいと感じるが、文章が非常に自然なので、そこに違和感を覚えず、簡単に受け入れてしまう。
ここもAIの危険なところだ。
生成AIには、翻訳機能もある。
英語のニュース記事を日本語に翻訳するのは簡単だ。
しかも、日本語としてこなれた自然な文章で驚く。
パソコンソフトでいろんな翻訳アプリがあるが、どんなに高価で進化したアプリでも、違和感のない翻訳文を出力する実力はない。
ところが、生成AIの翻訳文は、文章に違和感がない。
生成AIは翻訳アプリを超えたのか、と思ったがそうではない。
生成AIは誤訳だらけだ。
AIは自然な文章を出力することに長けているだけで、原文の意味やニュアンスを正しく翻訳することは考えられていない。
まあ、ニュース記事程度の翻訳だったら、事実情報だけが分かればいいので問題は少ないが、微妙なニュアンスの違いが求められる文章を生成AIに翻訳させるのは危険が大きい。
会議の議事録をAIに作らせることもできる。
会議音声を録音しておき、それを自動で文字起こしし、更に要約させる。
いままで、人間がやっていた手間がかかる議事録作成がAIで簡単に処理できる。
これも、AIでは不十分なものにしかならない。
せいぜい、AIに作らせたラフな議事録を基に、人間がチェックして正式な議事録を作成する、という使い方ではないか。
AIは現状ではレベルが低く全面的に頼り切るには危なっかしい。
そこには必ず人間のチェックがいる。
すると、このチェックのためにヒトの手間がかかることになり、これが新たな負担になりそうだ。
「こんなことなら、初めから自分でやった方が速い」ということになりかねない。
ある大衆向け科学雑誌、毎号興味深いテーマをフルカラーの画像とともに平易に解説してあり、よく読む。
その文章にはすべての漢字にふり仮名がふってある。
小学生でも読めるようにとの配慮だろう。
だが、このふり仮名が問題。
時々、間違ったふり仮名がふってあるのだ。
たぶん、コンピューターで自動的にふり仮名をふって、それを人間がチェックしているのだろうが、そのチェックが行き届かず、あちこちに見落としが残ってしまっているのだろう。
これでは、小学生に間違った読みを教えてしまうようなもので、むしろ弊害が大きい。
大人でも、難しい専門用語や固有名詞の場合は、ふり仮名は頼りになるが、あちこちに間違いが散見される文章では、危なっかしくて、信用できなくなる。
生成AIの特集号のケースは最悪だった。
あちこちに振り仮名間違いがあり、それが気になって読みにくくて仕方なかった。
生成AIの限界と弊害を身をもって証明するような特集号であった。
これからの仕事の仕方は激変する。
場合によっては、不要になる職種も出てきそうだ。
だが、現状の生成AIを使ってみて分かるのは、AIは、まだまだ実力不足との印象はぬぐえない。
生成AIに小学校レベルの文章題を解かせるとよくわかる。
なかなか正解を出してくれない。
少し込み入った内容になると、まったくダメだ。
AIの回答は、それらしい表現でいろんなことが書かれているが、すべて的外れででたらめ。
回答の矛盾点を指摘すると、直ちに否定して、頑固に自分の回答が正しいと言い張る。
それでも、おかしい点を理詰めで問い詰めようとすると、突然動きが停止して、「通信が切れました」となる。
たぶん、一定方向に無理やり誘導しようとする質問には対応しないようにプログラミングされているのかもしれない。
知識を問う質問は、もっとも利用できる。
単純な事実を確認するだけなら、自分でネット検索しても調べられるが、AIに代わりに調べさせ、まとまった文章として出力させれば、その後の作業がやりやすい。
例えば、「家康はいつどこでどんな理由で死んだか」という質問は、きめ細かく回答する。
たぶん、ネット上に家康の死については情報が豊富なので、AIはその中から必要な情報を抽出するだけでいい。
同じような調子で、歴史上の人物の死について調べてみた。
吉田茂、東郷平八郎、藤原道長、源頼朝・・・。
すると、いままで知らなかったことがいろいろ出てきて、「へーそうなんだ」となる。
だが、途中で、変なことに気づく。
回答のパターンがよく似てきたのだ。
自分で、人物の死について調べてみると、AIの回答がずいぶんいい加減だったことが分かる。
正しい情報も含まれているが、全然違う情報も。
中には、明らかに別の人物の情報が混入しているケースもあった。
生成AIは、言葉をつないでいるだけ。
ある言葉の次に可能性の高い言葉を探し出して並べているだけだ。
だから、道長の死について回答しているのに、途中から頼朝の情報に切り替わってつながってしまうということが起きる。
そう、AIは物を考えていない。
だから、人間が自分が考える代わりにAIに考えさせようとすると、酷い目に合う。
これは、自分が専門としている分野について質問してみるとよくわかる。
それらしい回答が返ってくるが、その内容は、当たり障りのない表面的な答えか、まったく別の内容を含んだでたらめであるか、どちらかだ。
専門家をうならせるほどの内容は出てこない。
これは当たり前だ。
AIはネット上の情報を拾ってきて文章の形に整形して表示しているだけだからだ。
ネット上にない情報は出力できないし、ネット上にない場合は、その周辺を探し回って同じような表現を見つけてつなげるだけ。
だから、でたらめの内容になる。
専門分野であれば、すぐにでたらめが分かるが、専門外の分野だと、それが見抜けない。
ここがAIに頼ることの危険だ。
AIは長い文章を要約してくれる。
4000文字の文章を読ませ、400文字で要約せよ、と指示すると、ものの数秒で出力してくれる。
要約文は、一見、筋が通っていて文章の趣旨を捉えているように見える。
だが、元の文章と読み比べてみると、まったく印象が違う。
AIは内容を理解して要約しているのではなく、言葉のつながりで文章を作っているだけ。
主要な単語をピックアップしてその前後を別の言葉でつないで、日本語として自然な文章を出力している。
文章として自然ではあっても、内容の信頼性はない。
これが、日本語としてギクシャクした表現になっていたら、誰でも疑わしいと感じるが、文章が非常に自然なので、そこに違和感を覚えず、簡単に受け入れてしまう。
ここもAIの危険なところだ。
生成AIには、翻訳機能もある。
英語のニュース記事を日本語に翻訳するのは簡単だ。
しかも、日本語としてこなれた自然な文章で驚く。
パソコンソフトでいろんな翻訳アプリがあるが、どんなに高価で進化したアプリでも、違和感のない翻訳文を出力する実力はない。
ところが、生成AIの翻訳文は、文章に違和感がない。
生成AIは翻訳アプリを超えたのか、と思ったがそうではない。
生成AIは誤訳だらけだ。
AIは自然な文章を出力することに長けているだけで、原文の意味やニュアンスを正しく翻訳することは考えられていない。
まあ、ニュース記事程度の翻訳だったら、事実情報だけが分かればいいので問題は少ないが、微妙なニュアンスの違いが求められる文章を生成AIに翻訳させるのは危険が大きい。
会議の議事録をAIに作らせることもできる。
会議音声を録音しておき、それを自動で文字起こしし、更に要約させる。
いままで、人間がやっていた手間がかかる議事録作成がAIで簡単に処理できる。
これも、AIでは不十分なものにしかならない。
せいぜい、AIに作らせたラフな議事録を基に、人間がチェックして正式な議事録を作成する、という使い方ではないか。
AIは現状ではレベルが低く全面的に頼り切るには危なっかしい。
そこには必ず人間のチェックがいる。
すると、このチェックのためにヒトの手間がかかることになり、これが新たな負担になりそうだ。
「こんなことなら、初めから自分でやった方が速い」ということになりかねない。
ある大衆向け科学雑誌、毎号興味深いテーマをフルカラーの画像とともに平易に解説してあり、よく読む。
その文章にはすべての漢字にふり仮名がふってある。
小学生でも読めるようにとの配慮だろう。
だが、このふり仮名が問題。
時々、間違ったふり仮名がふってあるのだ。
たぶん、コンピューターで自動的にふり仮名をふって、それを人間がチェックしているのだろうが、そのチェックが行き届かず、あちこちに見落としが残ってしまっているのだろう。
これでは、小学生に間違った読みを教えてしまうようなもので、むしろ弊害が大きい。
大人でも、難しい専門用語や固有名詞の場合は、ふり仮名は頼りになるが、あちこちに間違いが散見される文章では、危なっかしくて、信用できなくなる。
生成AIの特集号のケースは最悪だった。
あちこちに振り仮名間違いがあり、それが気になって読みにくくて仕方なかった。
生成AIの限界と弊害を身をもって証明するような特集号であった。