چطور بفهمیم یک ویدیو یا عکس، واقعی است یا ساخته‌شده با هوش مصنوعی؟ + آموزش

تبلیغات بنری

برای گزارش دادن -; ویدئوهای تولید شده با استفاده از هوش مصنوعی همه جا دیده می شوند. از چهره‌های مشهور و گزارش‌های جعلی درباره بلایای طبیعی گرفته تا ویدیوهای خرگوش روی ترامپولین! ابزار تولید ویدئو با هوش مصنوعی “Sora” از OpenAI، شرکت مادر ChatGPT، تشخیص حقیقت از جعلی را دشوارتر از همیشه کرده است. اکنون جدیدترین نسخه این فناوری یعنی Sora 2 که در قالب یک اپلیکیشن شبکه اجتماعی منتشر شده است، هر روز پیشرفت بیشتری می کند.

در چند ماه گذشته، این اپلیکیشن شبیه به تیک تاک در فضای مجازی منتشر شده است و طرفداران هوش مصنوعی مشتاقانه به دنبال «کد دعوت» برای ورود هستند. اما سورا مانند هیچ شبکه اجتماعی دیگری نیست: هر چیزی که در آن می‌بینید جعلی است و تمام ویدیوها کاملاً توسط هوش مصنوعی ایجاد شده‌اند.

از نظر فنی، ویدیوهای تولید شده با Sora در مقایسه با رقبایی مانند Midjourney's V1 و Google's Veo 3 چشمگیر هستند. وضوح بالایی دارد، صدا و تصویر آن هماهنگ است و خلاقیت شگفت انگیزی در آن دیده می شود. محبوب‌ترین ویژگی Sora قابلیتی به نام Cameo است که به کاربران اجازه می‌دهد چهره‌های افراد دیگر را در هر صحنه‌ای که با هوش مصنوعی تولید می‌شود وارد کنند – ابزاری جالب که ویدیوهایی شبیه به وحشت واقعی تولید می‌کند.

همین موضوع خیلی ها را نگران می کند کارشناسان این برنامه ساخت جعلی های خطرناک، انتشار اطلاعات نادرست و محو کردن مرز بین واقعیت و تخیل را آسان تر از همیشه کرده است. چهره‌های عمومی و افراد مشهور بیش از دیگران در برابر این نوع سرقت ادبی آسیب‌پذیر هستند و اتحادیه‌هایی مانند SAG-AFTRA از OpenAI خواسته‌اند تا اقدامات پیشگیرانه خود را تقویت کند.

شناخت محتوای تولید شده توسط هوش مصنوعی همچنان یک چالش جدی برای شرکت های فناوری، شبکه های اجتماعی و کاربران است، اما کاملا غیرممکن نیست. در اینجا چند برچسب وجود دارد که می تواند به شما در شناسایی ویدیوهای ایجاد شده با Sora کمک کند:

به دنبال واترمارک سورا باشید

هر ویدیویی که در برنامه Sora ایجاد می‌شود، هنگام دانلود دارای یک واترمارک است: لوگوی سفید Sora (نماد ابر) که در اطراف ویدیو حرکت می‌کند: شبیه به واترمارکی که در ویدیوهای TikTok می‌بینید.

واترمارکینگ یکی از موثرترین راه ها برای شناسایی محتوای تولید شده توسط هوش مصنوعی است. برای مثال، الگوی عکس Gemini nano Banana گوگل نیز به طور خودکار تصاویر خود را واترمارک می کند. وجود واترمارک به وضوح نشان می دهد که محتوا با کمک هوش مصنوعی تولید شده است.

اگر واترمارک ثابت باشد (جدا نمی شود)، می توان آن را به راحتی برش داد یا حذف کرد. حتی واترمارک های متحرک مانند واترمارک Sora را می توان با استفاده از برنامه های ویژه حذف واترمارک حذف کرد. بنابراین، واترمارک به تنهایی نمی تواند یک استاندارد نهایی باشد.

وقتی از سام آلتمن، مدیر عامل OpenAI پرسیده شد، گفت: «جامعه باید خود را با دنیایی تطبیق دهد که در آن هر کسی بتواند یک ویدیوی جعلی از هر کسی بسازد.»

قبل از سورا، هیچ ابزاری در دسترس عموم برای ایجاد ویدیوهایی مانند این وجود نداشت. با این حال، بیانیه او به درستی بر لزوم استفاده از روش های دیگر برای تأیید صحت محتوا تأکید می کند.

فراداده فایل را بررسی کنید

ممکن است فکر کنید، “شما هرگز ابرداده های ویدیویی را برای تأیید صحت آن بررسی نخواهید کرد”، اما این ساده تر از آن چیزی است که به نظر می رسد و یکی از بهترین راه ها برای شناسایی ویدیوهای ایجاد شده با سورا است.

فراداده مجموعه ای از اطلاعات است که به طور خودکار هنگام ایجاد هر گونه محتوا (تصویر، ویدئو، سند و غیره) ذخیره می شود. این داده ها شامل اطلاعاتی مانند نوع دوربین، مکان، تاریخ و زمان ضبط و حتی نام فایل است. محتوای تولید شده توسط هوش مصنوعی همچنین حاوی ابرداده است که اغلب مشخص می کند که توسط هوش مصنوعی ایجاد شده است.

OpenAI یکی از اعضای C2PA (Content Source and Authenticity Alliance) است، بنابراین ویدیوهای ایجاد شده با Sora شامل ابرداده های C2PA هستند. می‌توانید از ابزار رسمی Content Authentication Initiative برای تأیید متادیتا استفاده کنید:

نحوه بررسی فراداده یک ویدیو یا عکس:

وارد این لینک شوید: https://verify.contentauthenticity.org/

فایل مورد نیاز را دانلود کنید.

روی Open کلیک کنید.

اطلاعات را در قسمت صحیح بررسی کنید. اگر محتوای شما با استفاده از هوش مصنوعی ایجاد شده باشد، در قسمت خلاصه محتوا مشخص می شود.

هنگامی که یک ویدیوی تولید شده با Sora را از طریق این ابزار پخش می کنید، “Produced by OpenAI” را نمایش می دهد و تأیید می کند که ویدیو با استفاده از هوش مصنوعی تولید شده است.

البته این ابزار هم کامل نیست. برخی از ویدیوهای هوش مصنوعی ممکن است به گونه ای پردازش شوند که سیگنال های ابرداده آنها از بین برود. به عنوان مثال، ویدیوهایی که با Midjourney ایجاد می شوند معمولاً شناسایی نمی شوند. حتی اگر ویدیوی Sora را از طریق برنامه های دیگر ذخیره کنید (به عنوان مثال، حذف واترمارک)، ممکن است ابرداده آن پاک شود و ابزار نتواند تشخیص دهد که هوش مصنوعی این کار را انجام داده است.

سایر تگ های هوش مصنوعی را بررسی کنید یا تگ های خود را اضافه کنید

در برخی از شبکه های اجتماعی، مانند اینستاگرام و فیس بوک (متعلق به متا)، سیستم هایی برای شناسایی و طبقه بندی محتوای هوش مصنوعی وجود دارد. البته، این سیستم‌ها بی‌نقص نیستند، اما می‌توانند به شما کمک کنند تا مشخص کنید آیا یک پست توسط هوش مصنوعی ایجاد شده است یا خیر. TikTok و YouTube سیاست های مشابهی دارند.

با این حال، تنها راه مطمئن برای دانستن اینکه آیا یک ویدیو مبتنی بر هوش مصنوعی است یا خیر، افشای آن از سوی سازنده محتوا است. اکنون بسیاری از پلتفرم‌ها گزینه‌ای در تنظیمات خود دارند که در آن کاربران می‌توانند پست‌های خود را با برچسب “AI generated” منتشر کنند. حتی گنجاندن یک توضیح ساده در نظر می تواند به ارتقای شفافیت و اعتماد کمک کند.

در سورا، یاد می گیرید که هیچ چیز واقعی نیست. اما زمانی که ویدیوهای تولید شده را در شبکه های اجتماعی دیگر به اشتراک می گذارید، این مسئولیت جمعی ماست که منبع را به درستی نسبت دهیم. همانطور که مرز بین واقعیت و هوش مصنوعی به طور فزاینده ای مبهم می شود، صداقت و شفافیت اهمیت فزاینده ای پیدا می کند.

مهمتر از همه: هوشیار باشید

هیچ راه قطعی یک مرحله ای برای تشخیص واقعی یا جعلی بودن یک ویدیو وجود ندارد. بهترین کاری که می توانید انجام دهید این است که هر چیزی را که در اینترنت می بینید نپذیرید. به قلب خود اعتماد کنید: اگر چیزی غیر واقعی به نظر می رسد، احتمالاً چنین است.

در این عصر محتوای مصنوعی، بهترین دفاع شما هوشیاری بیشتر است: فیلم ها را از نزدیک تماشا کنید، به دنبال متن های تحریف شده، اشیاء ناپدید شده و حرکات غیرطبیعی باشید و اگر گاهی فریب خوردید، خود را سرزنش نکنید. حتی کارشناسان هم اشتباه می کنند.

تبلیغات بنری

منبع : خبرگزاری shahraranews

نویسنده نوشته: بهسام

دیدگاهتان را بنویسید