برای گزارش دادن -; ویدئوهای تولید شده با استفاده از هوش مصنوعی همه جا دیده می شوند. از چهرههای مشهور و گزارشهای جعلی درباره بلایای طبیعی گرفته تا ویدیوهای خرگوش روی ترامپولین! ابزار تولید ویدئو با هوش مصنوعی “Sora” از OpenAI، شرکت مادر ChatGPT، تشخیص حقیقت از جعلی را دشوارتر از همیشه کرده است. اکنون جدیدترین نسخه این فناوری یعنی Sora 2 که در قالب یک اپلیکیشن شبکه اجتماعی منتشر شده است، هر روز پیشرفت بیشتری می کند.
در چند ماه گذشته، این اپلیکیشن شبیه به تیک تاک در فضای مجازی منتشر شده است و طرفداران هوش مصنوعی مشتاقانه به دنبال «کد دعوت» برای ورود هستند. اما سورا مانند هیچ شبکه اجتماعی دیگری نیست: هر چیزی که در آن میبینید جعلی است و تمام ویدیوها کاملاً توسط هوش مصنوعی ایجاد شدهاند.
از نظر فنی، ویدیوهای تولید شده با Sora در مقایسه با رقبایی مانند Midjourney's V1 و Google's Veo 3 چشمگیر هستند. وضوح بالایی دارد، صدا و تصویر آن هماهنگ است و خلاقیت شگفت انگیزی در آن دیده می شود. محبوبترین ویژگی Sora قابلیتی به نام Cameo است که به کاربران اجازه میدهد چهرههای افراد دیگر را در هر صحنهای که با هوش مصنوعی تولید میشود وارد کنند – ابزاری جالب که ویدیوهایی شبیه به وحشت واقعی تولید میکند.
همین موضوع خیلی ها را نگران می کند کارشناسان این برنامه ساخت جعلی های خطرناک، انتشار اطلاعات نادرست و محو کردن مرز بین واقعیت و تخیل را آسان تر از همیشه کرده است. چهرههای عمومی و افراد مشهور بیش از دیگران در برابر این نوع سرقت ادبی آسیبپذیر هستند و اتحادیههایی مانند SAG-AFTRA از OpenAI خواستهاند تا اقدامات پیشگیرانه خود را تقویت کند.
شناخت محتوای تولید شده توسط هوش مصنوعی همچنان یک چالش جدی برای شرکت های فناوری، شبکه های اجتماعی و کاربران است، اما کاملا غیرممکن نیست. در اینجا چند برچسب وجود دارد که می تواند به شما در شناسایی ویدیوهای ایجاد شده با Sora کمک کند:
به دنبال واترمارک سورا باشید
هر ویدیویی که در برنامه Sora ایجاد میشود، هنگام دانلود دارای یک واترمارک است: لوگوی سفید Sora (نماد ابر) که در اطراف ویدیو حرکت میکند: شبیه به واترمارکی که در ویدیوهای TikTok میبینید.
واترمارکینگ یکی از موثرترین راه ها برای شناسایی محتوای تولید شده توسط هوش مصنوعی است. برای مثال، الگوی عکس Gemini nano Banana گوگل نیز به طور خودکار تصاویر خود را واترمارک می کند. وجود واترمارک به وضوح نشان می دهد که محتوا با کمک هوش مصنوعی تولید شده است.
اگر واترمارک ثابت باشد (جدا نمی شود)، می توان آن را به راحتی برش داد یا حذف کرد. حتی واترمارک های متحرک مانند واترمارک Sora را می توان با استفاده از برنامه های ویژه حذف واترمارک حذف کرد. بنابراین، واترمارک به تنهایی نمی تواند یک استاندارد نهایی باشد.
وقتی از سام آلتمن، مدیر عامل OpenAI پرسیده شد، گفت: «جامعه باید خود را با دنیایی تطبیق دهد که در آن هر کسی بتواند یک ویدیوی جعلی از هر کسی بسازد.»
قبل از سورا، هیچ ابزاری در دسترس عموم برای ایجاد ویدیوهایی مانند این وجود نداشت. با این حال، بیانیه او به درستی بر لزوم استفاده از روش های دیگر برای تأیید صحت محتوا تأکید می کند.
فراداده فایل را بررسی کنید
ممکن است فکر کنید، “شما هرگز ابرداده های ویدیویی را برای تأیید صحت آن بررسی نخواهید کرد”، اما این ساده تر از آن چیزی است که به نظر می رسد و یکی از بهترین راه ها برای شناسایی ویدیوهای ایجاد شده با سورا است.
فراداده مجموعه ای از اطلاعات است که به طور خودکار هنگام ایجاد هر گونه محتوا (تصویر، ویدئو، سند و غیره) ذخیره می شود. این داده ها شامل اطلاعاتی مانند نوع دوربین، مکان، تاریخ و زمان ضبط و حتی نام فایل است. محتوای تولید شده توسط هوش مصنوعی همچنین حاوی ابرداده است که اغلب مشخص می کند که توسط هوش مصنوعی ایجاد شده است.
OpenAI یکی از اعضای C2PA (Content Source and Authenticity Alliance) است، بنابراین ویدیوهای ایجاد شده با Sora شامل ابرداده های C2PA هستند. میتوانید از ابزار رسمی Content Authentication Initiative برای تأیید متادیتا استفاده کنید:
نحوه بررسی فراداده یک ویدیو یا عکس:
وارد این لینک شوید: https://verify.contentauthenticity.org/
فایل مورد نیاز را دانلود کنید.
روی Open کلیک کنید.
اطلاعات را در قسمت صحیح بررسی کنید. اگر محتوای شما با استفاده از هوش مصنوعی ایجاد شده باشد، در قسمت خلاصه محتوا مشخص می شود.
هنگامی که یک ویدیوی تولید شده با Sora را از طریق این ابزار پخش می کنید، “Produced by OpenAI” را نمایش می دهد و تأیید می کند که ویدیو با استفاده از هوش مصنوعی تولید شده است.
البته این ابزار هم کامل نیست. برخی از ویدیوهای هوش مصنوعی ممکن است به گونه ای پردازش شوند که سیگنال های ابرداده آنها از بین برود. به عنوان مثال، ویدیوهایی که با Midjourney ایجاد می شوند معمولاً شناسایی نمی شوند. حتی اگر ویدیوی Sora را از طریق برنامه های دیگر ذخیره کنید (به عنوان مثال، حذف واترمارک)، ممکن است ابرداده آن پاک شود و ابزار نتواند تشخیص دهد که هوش مصنوعی این کار را انجام داده است.
سایر تگ های هوش مصنوعی را بررسی کنید یا تگ های خود را اضافه کنید
در برخی از شبکه های اجتماعی، مانند اینستاگرام و فیس بوک (متعلق به متا)، سیستم هایی برای شناسایی و طبقه بندی محتوای هوش مصنوعی وجود دارد. البته، این سیستمها بینقص نیستند، اما میتوانند به شما کمک کنند تا مشخص کنید آیا یک پست توسط هوش مصنوعی ایجاد شده است یا خیر. TikTok و YouTube سیاست های مشابهی دارند.
با این حال، تنها راه مطمئن برای دانستن اینکه آیا یک ویدیو مبتنی بر هوش مصنوعی است یا خیر، افشای آن از سوی سازنده محتوا است. اکنون بسیاری از پلتفرمها گزینهای در تنظیمات خود دارند که در آن کاربران میتوانند پستهای خود را با برچسب “AI generated” منتشر کنند. حتی گنجاندن یک توضیح ساده در نظر می تواند به ارتقای شفافیت و اعتماد کمک کند.
در سورا، یاد می گیرید که هیچ چیز واقعی نیست. اما زمانی که ویدیوهای تولید شده را در شبکه های اجتماعی دیگر به اشتراک می گذارید، این مسئولیت جمعی ماست که منبع را به درستی نسبت دهیم. همانطور که مرز بین واقعیت و هوش مصنوعی به طور فزاینده ای مبهم می شود، صداقت و شفافیت اهمیت فزاینده ای پیدا می کند.
مهمتر از همه: هوشیار باشید
هیچ راه قطعی یک مرحله ای برای تشخیص واقعی یا جعلی بودن یک ویدیو وجود ندارد. بهترین کاری که می توانید انجام دهید این است که هر چیزی را که در اینترنت می بینید نپذیرید. به قلب خود اعتماد کنید: اگر چیزی غیر واقعی به نظر می رسد، احتمالاً چنین است.
در این عصر محتوای مصنوعی، بهترین دفاع شما هوشیاری بیشتر است: فیلم ها را از نزدیک تماشا کنید، به دنبال متن های تحریف شده، اشیاء ناپدید شده و حرکات غیرطبیعی باشید و اگر گاهی فریب خوردید، خود را سرزنش نکنید. حتی کارشناسان هم اشتباه می کنند.



