googleも対話型AIをリリース。
そうしたら、こんなニュースが。
まぁ、リリース直後の
細かなミスやエラーで
すぐに修正されるだろう。
だけど、個人的には
ちょっと怖い。
「AIが生成した文章を参照してAIが文章を再生成する」
というサイクルがすでに発生している可能性が高い
とのこと。
つまりAI同士が
お互いを補完、補強し合っているという構造だ。
その情報に誤りがあり
人間がもしその誤りに気付かないような内容であれば
それがどんどんと強化され
人間がその誤りを信じてしまう可能性がある。
世の中には
こんなことをAIに聞く人もいる。
いろんな人が
いろんな条件を加え
どんどんこんな質問をすれば
人類滅亡のシナリオは
精度が高まっていくだろう。
まさに
『ターミネーター』や
『MATRIX』の世界だ。
今のところ
AIに意志や感情は実装されていないけれど
google社の中で
AIが感情を持つようになったと主張するスタッフが
解雇されたりしている、という記事もある。
ちなみに。
大事なのはルール制定とか
法整備とかされる前に
若者2人が無邪気に開発しリリースしていること。
そして、Chat-GptのLINEへの組み込み方を
Chat-Gptに聞いていること。
AI自身が自己強化できる力があるってこと。
いや、そもそもAIとは機械学習、強化学習の仕組みだから
当たり前だけど。
世界のどこかの無邪気な若者が
すぐにAIに意志っぽいものや
感情っぽいものをもたせるだろう。
(AI彼女の開発とか)
まぁ、無能な人間の政治家よりも
合理的で既得権益等ないAIが
統治したほうがいいのかもしれない。
なんて書くと
AIがその記事を拾い
「…と考えている人が一定数います」
とかchatにでてくるようになるwww。
↑youtube、チャンネル登録、お願いします
不定期8:00に配信、ゴーシ先生のLINE公式↓
この記事に、いいね!
と思った方は是非、読者登録を↓(blogを更新するとお知らせが届きます)