AI(人工知能)は、人類にとって大変便利なもののはずなのに、最近では、あまり良い話題がありませんね。
吉本ばなな事件
先日は、吉本ばななを騙った、AIを使って作成された偽の「小説」がAmazonで販売され、作家の抗議によって、その作品が削除された事件がありました。吉本ばななさんの熱烈なファンの方が発見し、作家に問い合わせたらしいのですが、吉本さん自身も「私、こんな小説書いていません…」と青ざめたらしいですね。
私自身、その作品を読んでいませんが、どうやら、吉本さんの全作品を覚え込んだAIが、吉本さんらしい文体で、さも彼女が書きそうなプロットを生み出していたようです。畏るべし。私の友人で関西にお住まいのYさんも吉本ばななの大ファンで、彼女の有料のブログ(note)を購読しているぐらいですから、「ひどい」と憤っておりました。
中学生が容疑者
もう一つ、驚いた事件の犯人は中学生でした。AIのチャットGPTを使って作成したシステムを使って楽天モバイルのサーバーへ不正にアクセスし、それによって入手した他人のIDとパスワードで、通信回線を新規契約して犯罪グループに販売していたというのです。容疑者たちは14~16歳の少年ですよ! 今やそんなこと簡単に出来ちゃうんですね。IT音痴のおじさんたちは、ワナワナと震えて驚愕するばかりです。
このように、物事にはプラス面とマイナス面 advantage and disadvantage があるように、AIにも良い点、悪い点があります。犯罪にも使われるということです。
AIで亡き人と話す
先日、「BS世界のドキュメンタリー」で、「亡き人と話せたら AIがひらく危うい世界」というドイツの放送局が制作した番組をやっていました。タイトル通り、AIを使って亡くなった人とチャットが出来るソフト「プロジェクト・ディッセンバー」というものを開発したジェイソン・ローラーという人が登場していました。彼によると、AIは独自の知能を持ち、あまりにも複雑で規模が大きく、理解不能で、なぜそう反応するのか分からなくなるというのです。つまり、開発者の意図を遥かに超えて、AI自身が暴走するという意味なのでしょう。
これに対して、AI倫理学者のカール・エーマンという人は「AIの性能を制御するのは困難だと言っては駄目です。このような発言は、自動運転で道路で10人をひいても責任を取れないと言っているようなものです。安全な製品をつくることは企業の責任であるはずです」といった趣旨の発言をしていました。まさに、その通りですね。AIによって自殺にまで誘導された事案が世界中で起きているようで、まさに倫理的な面は見過ごせません。
AIは宗教か?
番組では、こういったAIで作成された亡くなった人とチャットが出来るソフトの「ビジネスモデル」(つまり開発者がどうやって稼いでいるのか?)について説明が全くありませんでしたが、恐らく、時間制とか、質問の数で「課金」されるシステムになっているのではないか、と私は想像します。
冷静に考えれば、亡くなった人と会話できるわけがなく、チャットしている相手は厖大なデータを読み込んで亡くなった人の特徴を乗っ取ったAIに過ぎません。それなのに利用者は本人だと信じ込んで涙まで流しているのです。番組では、ある学者が「今や、AIは宗教に取って代わっている」と発言していましたが、これも、まさにその通りです。
フランスの詩人ボードレールは19世紀に「パリの憂鬱」を書きましたが、21世紀は、まさに「AIの憂鬱」です。
コメント