近年覚ましい勢いで進化を続けるAI技術は、私たちの暮らしや社会に大きく貢献しています。
例えば自動車の自動運転機能、画像認証システム、ディープラーニングなど様々な分野で活かされています。
その一方で、軍事産業の発展やAIの暴走、情報漏洩のリスクなど危険を伴っているのも事実です。
身近なことで言えば、最近(2021年11月)のことですが、加工された通天閣の画像がツイッター上で拡散され話題になりましたよね。あのような『フェイク画像』や『ディープフェイク』と呼ばれる画像や動画が世界中で問題になっています。
『ディープフェイク』とは「ディープラーニング」と「フェイク」の合成語で広く一般的には、AI技術を使って作成された嘘(偽物)の動画・画像・音声を指します。
ディープフェイクはポルノ動画に利用されることが多いと言われていますが、他にも有名なところではFacebook(現Meta)のCEOマーク・ザッカーバーグ氏や元アメリカ大統領のドナルド・トランプ氏などもその被害にあっています。
また近年では著名人だけでなく一般人を対象にしたディープフェイクが問題視されるようになっています。
今回は「いかに簡単にフェイク画像が作れてしまうのか」をテーマに、画像加工はそこまで得意ではない私が実際に作成し検証してみます。
画像作成はPhotoshopを使います。詳しい作成方法は書きません。
フェイク画像を作成
①素材となる画像を用意
今回は通天閣の件があったのでそれを真似したいと思います。
②元の文字を削除して新しい文字を作成
画像の文字を削除して、新しく合成する文字を作成します。
(加工した画像には再利用できないように「FAKE」の文字を入れてあります)
③文字と画像を合成
最後に
いかがでしたか?画像加工があまり得意ではない私でも1時間ちょいでこれくらいは作れてしまいます(出来栄えは置いておいて)
手慣れた人ならもっと精度の高い加工画像が短時間で簡単に作れるでしょう。
悲しいですがフェイク画像やフェイクニュース、ディープフェイクはこれからも増加していくと思います。
デマ情報の拡散者にならないためには、「なんでもかんでも簡単に信用しない」「情報の発信源はどこなのかチェックする」などの注意が必要だと思います。