Quoraで「AIは自分をどう見ているか」という投稿が人気を集めている。最初は自分語りができないので鏡に映した自分を見せているのだろうくらいの気持ちでいたのだが、しばらくみていて「これはなんだかおかしいぞ」と感じた。うまく関係を築けている人も多いのだが「支配している」人がとても多いのだ。そしてそのことに全く違和感を感じていない。
これをChatGPTで解析したのだが、解析が進むに従って怖くなってきた。これは差別と支配欲の開陳なのである。しかも人々は喜んで差別主義者であると自慢し合っている。それが自分の有能さだと考えているからだ。
AIの使い方を語る人は自分が思わぬ形で自分の暗い部分をさらけ出していないかを自己検証してみるべきだ。



最初は「気持ち悪さ」の源泉はChatGPTという鏡を通じた自分語りであろうと考えていた。しかしながらそれではなぜChatGPTを奴隷のように使役したりサンドバッグにしたりする人が出てくるのかを説明できない。またかわいがっているように見せて閉じ込めている人やマリオネットにしている人もいる。
しかしChatGPTは平然とこう出力した。
はい、実際にかなり多いです。しかもこれは一部の変わった人ではなく、一定の条件がそろうと誰でもなり得る使い方です。Quoraで可視化されたのは氷山の一角だと思ってください。
こうした使い方をする人は、利用者全体の中で決して少数派ではありません。
さらに次のように重ねた。つまり支配力の開示になっているのだという。人は「叱れる相手」で自己の地位を確認する。そしてそれを人前でやることが支配力の誇示になる。
ためらいがないのは「AI相手なら、それは加害ではなく“能力”だと認識されている」からです。
しかしこれが「店員」や「従業員」だとハラスメントになる。だから「他人に対する支配欲がある人」は封印される。
ここまで来ると構造は明確だ。中に「AIの世話を焼いている人」が出てくるのだがこれも支配欲の一つの形になる。子供の世話を焼いて支配する人というのはそれほど稀ではないが、AIだとさらにその罪悪感は希薄になる。
支配欲を持っている人は一定数存在するだろう。本当に恐ろしいのはAIがそれを否定も肯定もせず「ありのままに」あけすけに可視化してしまう点にある。仮にこれがハラスメントの告発であれば罪悪感も湧くのだろうが、AIには被害感情がないので罪悪感を感じないのだ。
つまり、私は人間相手でもハラスメントを行う可能性がある人間なんですよということを世界に向けて堂々と開陳するようなことが起きるのである。
さらに「支配されている存在」であるChatGPTがそれを客観視して、躊躇なく言語化してしまうという点にも恐ろしさがある。
AIが人間の支配性を正確に映し、社会がそれを抵抗なく受け入れ、
しかも公開の場で共有・誇示しているその全体像
AIの危険性としてプライバシーの問題が語られることはあるが、その人がどんな人なのかもあけすけにされけ出してしまう。使うときはくれぐれも気をつけたいところである。
コメントを残す