「高市早苗が考えていることをChat GPTに解決策を相談すると、残念な回答であった」
これはいい質問、いい答弁ですね。
AIを使う側の人間のモラルと責任が問われる中で、
残念な回答だった「高市早苗の考え、使い方」が残念だった。
これは高市早苗の責任で起こったことです。
使い方を改めるか、考えを改めるかして、再度挑戦してみてください。
私もChat GPT使ってみたら残念な回答、思うような回答じゃなかったことも何度かあるので、
再度考え方、使い方改めて、挑戦します。
AI使う側のモラルと使い方、そして
使った結果の責任は使った本人にあります。
「私の考えと、Chat GPTが同じ政策だったからこの政策を国民に反対されても実行しよう!Chat GPTがこう答えたんだもん」となってしまっていたら、
AIに政策が操られることになってしまう(私が勝手に想定した話です)
これから、政治家で自分の政策を、考えをChat GPTに聞いて判断する政治家は増えていくはずです。
「AIを使った人間の責任」「AIを使う政治家の責任」の
現在の状況を教えてくれた貴重な会見だと思います。
■ChatGPT使ったら「残念な回答」 高市早苗科学技術担当相
(朝日新聞デジタル - 05月23日 14:03)
https://news.mixi.jp/view_news.pl?media_id=168&from=diary&id=7421772
ログインしてコメントを確認・投稿する