LINEヤフー株式会社は2026年1月30日、過去1年以内に生成AIの利用経験がある1,056名を対象に実施した「生成AI利用に関する意識調査」の結果を発表しました。
今回の調査結果によれば、生成AIを利用するユーザーの多くが、情報管理や出力内容の信憑性に対して高い警戒心を持っていることが明らかになりました。具体的には、回答者の78.7%が生成AI利用時のセキュリティやプライバシーに不安を感じており、具体的な懸念事項としては「入力データの漏洩」を挙げた人が63.4%と最多を占めています。次いで「誤った情報の利用(47.3%)」や「AIへの依存(46.2%)」といったリスクを危惧する声が目立っています。
リスク認識と実働の乖離が浮き彫りに
一方で、安全に利用するための具体的な行動には課題も見られます。セキュリティ等に不安を感じる層が約8割に達しているにもかかわらず、サービスの「利用規約」や「注意書き」をあまり確認しない、あるいは一度も確認したことがないと回答した人は52.0%に上りました。
この結果は、生成AIの仕組みや潜在的なリスクを頭では理解していながらも、サービス利用時の前提条件を精査するなどの具体的なリスク回避行動には至っていない、ユーザーの「認識と行動のギャップ」を浮き彫りにしています。総務省も情報流出防止のために規約の確認を推奨していますが、浸透にはまだ時間を要する状況と言えそうです。
高い規範意識と再確認の習慣化
その一方で、情報の正確性に対するリテラシーは高い水準にあります。生成AIが事実と異なる回答(ハルシネーション)を生成する可能性について、92.3%のユーザーが理解していると回答しました。また、AIの回答を鵜呑みにせず、他の情報源で再確認を行うユーザーも76.9%に達しています。
生成AIによる回答の採用基準については、46.4%が「自身の知識や経験」に照らして主観的に判断しており、34.5%が「他ソースとの照合」を行っています。さらに、生成AIによる制作物が著作権を侵害する可能性についても79.0%が認知しており、最終的な判断の主体は「人間が行うべき」と考える層は95.1%と、極めて高い規範意識が示される結果となりました。
出典:https://prtimes.jp/main/html/rd/p/000001602.000129774.html