آشنایی با دیپ فیک و خطرات آن در آینده

حالت شب

تصور کنید که شما در حال تماشای ویدیویی هستید که در آن دو سیستم ساز روبرو یکدیگر هستند و از قبل در حال مذاکره هستند. همه چیز طبیعی است ، گفتگوها ، محیط. هر آنچه واقعی و تعیین کننده است را با یک دوست در میان بگذارید. دوست شما آن را به شخص دیگری تبدیل می کند ، و غیره ، و فیلم نیز همین کار را می کند. بعد از مدتی متوجه شدم که هر دو نفر در یک جلسه در واقعیت حضور ندارند و چهره آن به عنوان چهره شخص دیگر قرار می گیرد و این ویدئو واقعاً وجود ندارد. این امر با استفاده از فناوری اطلاعات دیپ فیک امکان پذیر است.

Deep Fake چیست؟

فناوری دیپ فیک اولین بار در سال 2014 توسط ایان گودفلو ، دانشجوی دکترای مقطع دکترا که در اپل کار می کند ، ظاهر شد. Deepfike بیشتر مبتنی بر GAN است. شبکه های تولید درگیری الگوریتم ها را قادر می سازد تا تصاویری فراتر از طبقه بندی داده ها تولید یا تولید کنند. این اتفاق زمانی رخ داد که دو GAN سعی کردند “واقعی” شوند اگر شما را گول بزنند. GAN می تواند فقط با استفاده از یک تصویر خاص از شخص ، یک کلیپ ویدیویی کامل ایجاد کند.

مرکز هوش مصنوعی سامسونگ اخبار پژوهشی را منتشر کرده است که دانش پشت فناوری Deep Fake را فاش می کند. بخشی از این تحقیق می گوید: “ایجاد یک مدل واقعی از یک فرد سخنران ، نیاز به یادگیری مجموعه ای از حالات صورت دارد.” در این شرایط ، حالات خاص ، مانند مدلهای شخصی مورد نظر ، اکنون به چندین یا حتی یک تصویر از چهره فرد احتیاج دارند. »

برای اطلاعات بیشتر فیلم زیر را مشاهده کنید. در این ویدیو ، Deep Fake که توسط یکی از کاربران YouTube به نام Ctrl Shift Face ایجاد و منتشر شده است ، از زمان انتشار کمدین معروف “بیل هدر” در یک برنامه تلویزیونی ، بیش از 10 میلیون بازدید داشته است و شروع به یادآوری این موضوع با تام کروز می کند داشته است. اگر شروع به تقلید از صدای تام کروز و ست روگن کنید ، چهره او تغییر می کند و دقیقاً شبیه تام کروز و ست روگن می شود!

 

فناوری Deep Fake در حال حاضر فقط در شکل خود محدود است. اما اگر این فناوری پیشرفت کرده و تمام اجزای سازنده یک فرد زنده را زنده نگه داشته باشد چه باید کرد؟ حتی اکنون نیز تشخیص فیلم Deep Fake از ویدئو کار آسانی نیست. حال ببینید که هرچه پیشرفت می کند چه اتفاقی می افتد.

چرا دیپ فیک خطرناک است؟

با توجه به این بیماری که اکنون دیگر کاهش می یابد ، به دنبال خراب شدن هزینه های گزاف برای حمله به دشمنان خود است و اکثرا به جنگ سایبری روی آورده است ؛ تنها خطری که از جانب دیپ فیک ممکن است درک شود اگر بیشتر درک کرد. همچنین در نظر بگیرید که یکی دیگر از عکسهای اشخاص موفق شده مانند بازیگران ، سیاستمداران یا حتی مردم معمولی هستند که روی آنها را متفاوت و مسحجن قرار دهید! یا حتی با استفاده از این فناوری کاری که تا سیاستمداران و رهبران جنگی انجام می شود ، در صورت استفاده از دستورالعمل های خاص برای حمله به کشور ، در صورت داشتن بدهی یا خشونت را به ترویج می رساند.

آندره هیکرسون ، مدیر دانشکده روزنامه روزنامه نگاری و ارتباطات جمعی دانشگاه کارولینای جنوبی اعلام کرد: «دیپ فیک به بیان ساده دروغی است که مبدل به حقیقت است. اگر آن حقیقت را در نظر بگیرید که تصمیم بگیرید که نادرست با پیام های ناگوار گیریم. »

هیكرسون گفت: “بیشتر ترس های دیپ فیك مربوط به سیاست است.” چه اتفاقی می افتد اگر ویدیویی منتشر شود که نشان می دهد یک رهبر سیاسی اکنون خشونت یا ترور را تبلیغ می کند؟ اگر این تهدید فوری است ، دیگر ممکن است مجبور به اقدام شود؟ »


بیشتر بخوانید:


بن لام ، مدیرعامل صنایع Hypergiant گفت: “این مسئله لزوماً فناوری GAN نیست.” این بدان دلیل است که بازیگران بد اکنون از یک مزیت بزرگ (دیپ فیک) برخوردار هستند و هیچ راه حلی برای این تهدید وجود ندارد. با این حال ، تعداد و راه حل های ایده های جدید در دنیای هوش مصنوعی برای مقابله با این تهدید در حال ظهور است. اما انسان هنوز هم اولین راه حل است. »

جعل عمیق به روش های مختلفی برای بی ثبات سازی دولت و روند سیاسی استفاده شده است. در اینجا برخی از آنها ذکر شده است:

  • در گابون ، ارتش پس از فیلم به ظاهر جعلی از رهبر خود ، علی بونگو ، مبنی بر عدم سلامت رئیس جمهور جمهوری اسلامی برای اداره کشور ، کودتای نافرجامی را آغاز کرد.
  • در مالزی ، ویدئویی منتشر شد که وزیر اقتصاد مالزی را در حال رابطه جنسی نشان می داد. بحث و به روز کنید که شهرت این وزیر به دلیل جعلی بودن یا نبودن به شهادت رسیده است.
  • در بلژیک ، یک گروه سیاسی Deep Ficky را از نخست وزیر بلژیک پخش کرد که در آن وی ، طی سخنرانی ، شیوع ویروس کرونا به محیط زیست را محکوم کرد و خواستار اقدام فوری درمورد تغییر اقلیم شد.

انتخابات ایالات متحده به پایان رسید و رئیس جمهور نامگذاری شد. اما قبل از انتخابات شایعاتی مبنی بر استفاده از Deep Fake برای ایجاد اخلال در انتخابات وجود داشت. تابستان سال گذشته ، کمیته اطلاعات مجلس نمایندگان بیانیه مشترکی را به توییتر ، فیس بوک و گوگل ارسال کرد و از آنها پرسید که برنامه های رسانه های اجتماعی آنها برای مبارزه با Deep Fake در انتخابات چیست. این تحقیقات پس از فیلم جعلی توئیت سخنگوی ترامپ انجام شد:

حال تصور کنید اگر هر یک از نامزدها از Deep Fake برای از بین بردن رقیب یا بالا بردن رای خود استفاده می کردند ، چه اتفاقی می افتاد؟ البته با جستجوهای فعلی من اخباری را در این زمینه منتشر نکرده است. ممکن است در آینده از آن استفاده کنید ، در این س questionال مشخص نشده است.

قانون در این رابطه چه می‌گوید؟

Deep Fick غیرقانونی نیست. اما تولیدکنندگان و توزیع کنندگان مجازات به راحتی قانون را زیر پا می گذارند. Deep Fake به مقاله ای پیوسته است که حق نسخه برداری یا قانون محافظت از محتوا را نقض می کند و اگر بخواهد قربانی شود ، اگر می خواهید آن را تهیه کنید ، باید باشد. همچنین به اشتراک گذاشتن تصاویر جنسی و خصوصی بدون اجازه شخص ممکن است یک جرم باشد. در قوانین انگلیس در این زمینه تقسیم بندی وجود دارد و در اسکاتلند قانون انتقاد جنسی شامل دیپ فیک است.

راه حل مقابله با تهدیدها چیست؟
راستش ، فکر می کنم هوش مصنوعی بهترین راه است. اما فقط از سیستم اطلاعاتی هوش مصنوعی موجود ضعف اساسی دارند. کسانی که محبوب مورد علاقه شخصی هستند و افراد خوبی هستند زیرا از طریق دسترسی به آنها به فیلم های واقعی دسترسی آزاد دارد. این شرکت فناوری اطلاعات در حال حاضر روی سیستم های ردیابی کار می کند که هر زمان ویدیوی جعلی ظاهر می شود ، ردیابی می کنند. روش دیگر تمرکز بر منشا رسانه است. علامت های آبی دیجیتال بدون نقص نیستند. اما یک منبع آنلاین بلاکچین به سابقه استفاده از نسخه اصلی فیلم علاقه مند است و در صورت داشتن منبع ، امکان کشف نسخه تقلبی را داشت.

آیا Deepfic همیشه خطرناک است؟

لازم نیست ؛ بیش از سرگرم کننده و همچنین مفید است. Deep Fix Sound Recovery وقتی شخصی گم شد ، صدای او را برگردانید. فیلم های جذاب Deepfie گالری ها و موزه ها را زنده می کنند. موزه سالوادور دالی دارای Deep Ficky ​​، نقاش سورئالیست است که خود را معرفی کرده و حتی از یک عکس کم حجم در کنار بازدید کنندگان استفاده کرده است. در صنعت سرگرمی ، استفاده از این فناوری برای بهبود دوبله فیلم ها یا حتی بقای بازیگران درگذشته مورد استفاده قرار گرفت. به عنوان مثال ، “جیمز دین” آنقدر فقیر است که می تواند در فیلمی به نام “یافتن جک” درباره جنگ ویتنام بازی کند.

نتیجه گیری:

من فکر می کنم هر چیزی می تواند مضر و مفید باشد. از چاقو می توان هم برای کشتن شخصی و هم برای سهولت کار ما استفاده کرد تا همیشه میوه را با دست پوست پوست نکنیم. در مورد دیپ فیک هم همینطور است. اما آنچه من دیده ام این است که سو mis استفاده از این فناوری بیش از استفاده مناسب آن است و قابلیت استفاده در برابر آن بیشتر از استفاده مناسب آن است.

این را نیز در نظر بگیرید که در دنیایی که میلیون ها نفر (معروف به افراد مشهور یا اینفلوئنسر) ممکن است یک فیلم را چند دقیقه پس از انتشار ویدیویی در اینترنت تماشا کنند ، اگر آن فیلم جعلی و Deep Fake از آب بیرون بیایند چه می کنید؟ آنچه باید انجام شود؟ به طور قطع ، ویدیو بارها و بارها در همان چند دقیقه به اشتراک گذاشته می شود و به صورت شبکه ای و نمایی بیشتر مشاهده می شود. در این شرایط ، ما ایرانیان ضرب المثلی داریم که می گوید “دیگر نمی توان آب جمع کرد”. دیگر کاری نمی توان انجام داد و حتی اگر سعی کنید سوund تفاهم را برطرف کنید ، نمی توان مشکل را به طور کامل حل کرد.

شما چی فکر می کنید؟ دیپ فیک مفید است یا مضر؟ نظرات خود را با ما و سایر دوستان خود در همراه یار به اشتراک بگذارید.

کانال تلگرام خبرگزاری همراه یار

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

پنج × چهار =