中国の公安部門「公安部網絡安全保衛局」によると、AI技術の進化に伴い、特定の目的でAIを用いたデマの作成や拡散が問題となっています。
AIを使って作成された偽のニュースや映像は瞬時に多くの注目を集めるだけでなく、デマのリアリティが高いため一般の人々が真偽を見分けるのが難しく、社会不安や混乱を引き起こす要因にもなり得るとされています。
2024年6月に話題となった一例では、広東省の事件に関する「高齢者が暴行を受け孫が自殺した」という偽動画がAIで生成され拡散されました。
公安部の調査により、この動画は完全に作り物であることが判明し、投稿者は法的処罰を受けたとのことです。
また、他の事例として、新疆ウイグル自治区での地震を捏造した映像や、警察と市民の対立を誇張した記事などもAIを用いた虚偽情報として摘発されました。
AIによるデマの増加は、現代の情報社会において深刻な問題を引き起こしていると考えられます。特に、AIで生成された映像や音声は、かつての「写真と録画があれば真実」という価値観を覆しています。
AIが「カスタマイズされたフェイクニュース」生成を容易にし、真実味を持たせることで多くの人が信じやすくなることがあります。
中国の公安部はデマの危害性と共に、ネット情報を慎重に評価することや、複数の信頼できる情報源から確認する、安易に拡散しないなどの対策の重要性を訴えています。
ネット情報の真偽が見分けるのにますます難しくなってきた今は一般市民の認識を高める一方、法律の規制を含めたさまざまな対応が必要になるでしょう。
日本でも、AI生成の偽情報によるトラブルが増えている中、デジタルリテラシーの強化や、事実確認のためのツールの開発などが進んでいます。
このような取り組みが進むことで、AIを用いたデマに対する社会的な耐性が高まる効果が期待されています。