ماجرای جعل صدا و تصویر شخصیتها به داستانی عادی تبدیل شده است اما بهای این سرگرمی هیجانانگیز ترویج محتوای غیرواقعی است که از قضا قانون نیز در مقابل آن سکوت کرده است.
شرکتهای کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل میکند.
مشاور هوش مصنوعی در سازمان ملل متحد در مورد استفاده مخرب از فناوری جدید جعل عمیق (دیپ فیک) که در آن، هوش مصنوعی میتواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.