GPT-4のような高度なAIとヒトを識別するにはどうすればよいか? 結城浩さんが興味深い記事を公開している。AIか人かを判断するポイントを、ChatGPTに尋ねている点が面白い。ChatGPTによると、次のような質問が苦手だという。 複雑な感情やニュアンスについて尋ねる クリエイティブな質問を投げかける 時系列に関する質問をする 矛盾した情報を提供してみる 言語の遊びや言葉の意味を理解する質問をする AIには、矛盾や言葉遊びに対応することが不十分であることが浮き彫りにされている。一方、人間は矛盾や誤りに対する反応が上手く、AIよりも柔軟に対応できているのが現状のようだ。 もっとも、AIに関する技術は進歩し続けており、より高度な会話能力を持つAIが登場することは十分期待できる。AIにヒトを模倣させるチューリングテストは合格だろう。 だが、どれほどChatGPTが進歩しようとも、ヒトと区別する
![ChatGPTにとっての「良心」とは何か?](https://cdn-ak-scissors.b.st-hatena.com/image/square/15a0200e4e07fe1cc7d1d823a40a067a2f708e51/height=288;version=1;width=512/https%3A%2F%2Fdain.cocolog-nifty.com%2Fmyblog%2Fimages%2Fsugohon.jpg)