スペシャルコンテンツ

明るく楽しく働くためのIDEA-MAGAZINE

ハルシネーション?コミュニケーション!

みなさま、こんにちは。
雨の日はネットワーク速度が遅くなる!が持論のコーディネーター:手倉森です。
(もちろん、エビデンスはありません!)

最近、遅ればせながらようやく『ちゃっぴー(ChatGPT)』を(恐る恐る)使うようになりました。
『冷蔵庫にある食材から今夜の献立候補を考えてもらう』や、
『アウトドアでも崩れにくいメイク攻略法』など、業務とは全く関係のない使い方ではありますが、なるほど…ほうほう…便利になったものよ…と感心しながら使っています。

何度か使ううちに、いわゆる『ハルシネーション』という現象も経験しまして、
“ちゃっぴーが自信満々にお勧めしてきたアイテムが架空の商品だった”という洗礼も。
※ハルシネーション:AI(人工知能)が誤認や論理の矛盾を含む事象や事実とは異なる情報を作り出してしまう現象のこと

いくら優秀?なAIとはいえ、前提条件や要望が曖昧だったり、こちらが提示した情報が誤っていれば台無しになるのだ、と身をもって学びました。

前提条件をあれこれ設定して指示して、商品名や用語も正しいものを使って…あぁ面倒!と一瞬思ったりもしましたが、よくよく考えてみましたら、これはヒト同士のコミュニケーションでも同じではないのか、と。

「前提条件を定めない」は、「相手が知っている前提で話す」、
「不正確な情報を提示する」は、「用語や商品名を自分流に変換する」、
「曖昧な指示をする」は、「察してもらうことを求める」、

こう言い換えてみますと、いわゆる『ハルシネーション』とやらは、
我々ヒトが日常の中で経験しがちなコミュニケーションエラーそのもの、のようにも思えます。
AIであっても、ヒトであっても、自分がもっている情報・やってほしいことを開示しないまま「察して」というのは、酷でありましょう。

「なんでやってくれないの!」「わかってくれない!」と憤るのは見当違いですよね。

色々と便利になりつつある世の中ではありますが、その根底には常にヒト同士の営み・交流が根付いているのだ、ということを忘れずに過ごさねば。
『ちゃっぴー』と会話?しながら、そんなことを考えたのでした。

このコラムで使用したイラストは、『ちゃっぴー』に頼んで飼い猫を擬人化してもらいました!

PAGE TOP