漫才などで相方に無理難題を押しつけて困らせる事を言う
【ムチャぶり】というのがありますが、【AI】にもムチャぶりが利くのかどうか試した方がいましてね。
「『ウンチを送りました』を敬語にしてください」
チャットGPTに、そんなムチャぶりをしてみたところ、返ってきた答えというのが、
「『お便りをお送りしました』と申し上げます」
実に秀逸でエレガントな返答ですよね。
これは【ウンチ】を一旦【便】と言い換えて【お便り】に変形する事で、
尾籠な言葉を遠回しに表現しているわけですね。
もっとも、元々の指示はあくまでも『敬語にしてください』であり、
そのような言い換えは必須ではないんですが、それにもかかわらず
『目上の人に宛てるシチュエーション』である事を踏まえ、
奥ゆかしい表現に整えたチャットGPTは、さすがとしか言いようがないですね。
トイレに行く事を『お花を摘みに行く』などと
言い換えたりするのに通じるものがあるんじゃないかと思います。
ただ、全てのAIが同じ返答をするわけではないようでして、
別のAIに同じムチャぶりをしたところ、
「非常に下品で失礼な印象を与えます。
『ウンチを送りました』という文は、どのような場面で使われるのでしょうか?」
などと長文で詰められたそうでして・・・機械であるはずのAIにも、
人間のような個性があって面白いですね。
日夜進化し続けるAIですが、デンマークとアメリカの研究チームが
【死期を予想できるAI】を開発したそうでして、
高い予測精度で死亡時期を当てる事ができるそうですね。
このシステムには、デンマーク国民の健康記録と600万人分の人口統計学的記録から、
出生時刻、学歴、給与、住居、健康状態などのデータを学習させたんですね。
そして次に何が起こるかを予測するよう訓練され、
分析に基づいて人々の死期を予測する能力を示す事に成功したんですね。
試しに35歳から65歳の人々を対象にテストしたところ、
半数が予測の範囲内で死亡し、その精度は78%と極めて高いものだったそうですね。
ただこの結果は、デンマーク人のデータのみを用いて学習されたものであるため、
他の国の人々の場合も全く同じ結果になるとは限らないわけでして、
その精度は限定的だという事ですね。
そして危惧すべきは、こういったAIシステムが企業に渡った場合ですね。
例えば保険業界が利用しだしたとすると、不運な出来事に見舞われたり、
今後死亡するのが誰なのかを企業が共有する事で、負担を軽減できるようになり、
保険の目的や考え方として間違った方向に行ってしまう可能性があるわけです。
「俺、健康診断でも、どこも悪くないんだけど、生命保険に入ろうとしたら、
保険会社が渋い顔して契約してくれないんだよね」
こういう方は、どんなに健康であったとしても、
『何らかの理由で近々亡くなる』というAIから得た情報を、
保険会社がつかんでるという事になりますから・・・それは嫌ですよね。
「ウチの母親、長年コールセンターで働いてるんだけどさ、
例によってああいう業界にもAIがドンドン使われだしてるんだよ」
「あ〜そうだね」
「それで今、AIじゃなくて人が対応すると、かけてきた人が
『人間が出た!人間だ!』って大喜びされるらしいよ」
もうすっかり、そんな世の中になってしまったんですね。
微笑亭さん太
ログインしてコメントを確認・投稿する