チャットGPTの出典問題とは

最近、AIがどんどん進化してるんだけど、その中でも話題になってるのがCHAT GPTっていう言語モデルだ。

人間が書いた文章から学習して、自然なコミュニケーションに対応することができるってヤツだね。

CHAT GPTが登場したことで、便利なツールが増えた一方で、問題も生まれてるんだよね。それは、出典を確認しないで情報を鵜呑みにすることが増えるかもしれないってこと。

CHAT GPTが生成する文章は、人間が書いた文章と区別がつきにくくなってるから、フェイクニュースとか誤った情報が広がりやすくなる恐れがある。

しかも、引用するときに出典を確認することが困難になっちゃうから、情報源の信頼性を確認することができなくなるんだよね。

出典を確認しない社会だと、信頼性の低い情報が広がっちゃって、学術研究や報道などの信頼性も失われるかもしれないってこと。

実際に大学院で論文を書いた身としては、情報のソース(一次情報)の出典が書いていないと、情報の信頼性が担保できないと思ってる。

一度気になったら、CHAT GPTに「回答した情報の出典を明記して」と聞いたことがある。

そしたらこんな答えが返ってきた。

「私が回答した内容は、全て私自身が作成したものです。私はOpenAIが提供するChatGPTという言語モデルを使用しており、自身が学習したデータを元に回答を生成しています。出典を必要としないことがChatGPTの特徴の一つですが、私自身が回答を作成したことを明記します。」

つまり何か。

「出典:CHAT GPTより」という記載になる?これが許容される日が来るのかどうか、、、、。

だから、今のところはCHAT GPTを使うときは、関連情報の確認をしっかりして、正確な情報を伝えるように心がけなきゃいけないなぁと思う。

コメント

タイトルとURLをコピーしました