AIは間違えない?
(2023年10月2日 09:00) カテゴリー:所長通信最近 net検索などで色々な情報をいただける生活に馴れてしまっているみたいです
キレイに整理された回答がでてくると うっかり信じてしまいそうになり
「ダメダメ」と自分に言い聞かせて 確認できる限りは情報元やその真偽を確認しようと
努力しています
昔 我々の仕事でキレイにワープロ(当時はそんなものでした)で印字した決算書や報告書は
手書きのものより 段違いに正しいと信じてもらえるということを実感したころがありました
今 内容はずいぶん違いますが 同じような心理が働くのだろうと思ったりしています
AIは過去の膨大な情報の中から関連するものを探してきて 常に学習もして正しく改訂されていくのだ
と言われると 間違った情報は自動的に訂正されているのだろうなどと
それをあまり抵抗なく利用したり 受け売りで発信したり・・となっていくようです
私は仕事の必要もあって ヒントや問題のポイントをあぶりだせると利用もしていますが
狭く深い専門の話しになると「そーかなー」的に感じることもでてきます
きっとそのような分野はもともと情報量がすくなくて 間違ったものが混入した時
正しい情報で薄められて ほぼ正しいとまでは集積も分析もできないから
こういうことが起こるのかな と考えています
もちろん仕事の場合は必ず情報元を確認し 古い(今は通用しない)意見などが混ざっていないかなど
を確かめるわけですが 結構そこで鵜呑みにしては危ない という経験をしたりします
ですから 一見説得力がある回答が出てきても 丸のみで信じるのは危ないと思ってしまいますし
自分が考えていることに他の意見を知りたい段階ではありがたく情報を受け取りますが
それを あたかも自分の意見のようにコピペして発信することは絶対してはいけないと戒めています
それを考えると 学校や会社でAI生成記事を利用しないなどとわざわざ禁止事項をいれなくても
そのようなことをして作成した論文や報告書の質が良いわけない とも思っています
また人間では当たり前に間違いに気づくようなスペルは同じでも全く違う単語を識別していない
などということも実際におこります(もちろんそれに気付けば訂正して学習させるのでしょうが)
いくら学習して成長していく人口頭脳であっても
膨大な情報を収集して分析して組み立てて発信するのだから(それも勝手に)
AIは間違えない というのが危険であるのは当たり前であるわけです
真偽(正しさ)の判断や
そこから何かを感じる 思う などという真の創造はは人間でしかできないのではないでしょうか
どこまでいってもAIは人間をこえられない
私はそう思っています