زلمی کاوه
به بهانه اتهام داد و ستد جنسی در ارگ ریاست جمهوری
فرض کنید مانند هر انسانی که در کره زمين به انترنت دسترسی دارد دنبال عکس مجانی و یا ويديو میگرديد و ناگهان با عکس و يا ويديویی از خودتان روبهرو میشوید. تصورکنيد کسی تمام عکسهای شما را از فِسبوکتان دزدیده، آنها را با عکس لخت و هرچه که خواستهاند ترکيب نموده و ويديو کليپی با کيفيتی را که با نسخه اصلیاش هيچ تفاوتی ندارد ساخته و روی انترنت تکثير نموده. چنين تکنيکی اکنون وجود دارد و شرکت سامسونگ قصد دارد آن را همهگانی سازد. با در دست داشتن چنين امکانی خيلیها به صورت غيرمجاز و قانونی از چنين تکنيکی بهره خواهند گرفت. جنايتکاران و دشمنان شما امکانات خوبی را برای زیر فشار قراردادن شما در دسترس خواهند داشت. فعالان سياسی، مخالفين دولتها، انسانهای خلاف جريان، سياستمداران، شخصيتهای مشهور و حتا انسانهای عادی مورد آماج قرار خواهند گرفت. به خصوص در کشورهای مانند افغانستان که در آن نه قوانين مدرن حمايت از حريم خصوصی شهروندان وجود دارد و نه کسی به اين روابط احترام میگذارد. افزون برآن در افغانستان روابط تابوییای که جامعه نسبت به آن حساسيت نشان میدهد اسباب مناسبی برای بدنام کردن مخالفين سياسی، فعالان چپ، فمینیستها و… منابع درآمد خوبی خواهد شد برای جنايتکاران و گروههای مافيایی که از این تکنیک استفاده میکنند. ساده انگاری مردم و عدم دانش انتقادی نسبت به منابع؛ روابط احساسی، عاطفی و روابط سياسی خيلیها را بههم هم خواهد زد و آثار مخرب اجتماعی ميان افراد جامعه را بيشتر خواهد کرد. از آنجایکه تابوهای جنسی اهميت اساسی در جامعه افغانستان دارد، زنان که در تصور اجتماع عاطفی و خیانتکار نسبت به همسر و دیگر مسایل سنتی محسوب میشوند به شدت از این ناحیه آسیب میبینند.
هوش مصنوعی، چهرههای جعلی و صدایی که وجود ندارد
صنعت فیلم و بازی به مدت طولانی با جلوههای ویژه کار کرده است. به طور نمونه، قرار دادن یک چهره بازیگر در بدن دیگری. اگرچند، این کار سخت و وقتگیر است تا تصاویر را با هم پچ کنید، اما با تشکر از الگوريتم جديد همهی اين کارها را میتوان به سادهگی و آسانی از طریق کمپیوتر انجام داد. به کمک هوش مصنوعی، جایگزین چهرهها در فیلمها آسانتر شده است. همه چیز مورد نیاز را بادسترسی به یک برنامه میتوان حل نمود. این فنآوری میتواند ابزار موثری برای ایجاد خبر دروغ نيز باشد.
هوش مصنوعی فيک اپ یک برنامه جدید است که برای جایگزین افراد در یک ویدیو استفاده میشود. در اینترنت، نمونههای متعددی از کلیپهای فیلم وجود دارد که بازیگر نیکلاس کیج جایگزین نقش اصلی آن است. اين برنامه نشان میدهد که چطور آسان است تا فیلم را دستکاری کنید.
برای ایجاد یک فیلم جعلی، فیلم اصلی و تصاویر زیادی از فردی که قرار است در آن قرار گیرد، نیاز است. با استفاده از آموزش عمیق، یک تکنولوژی قدرتمند چهره جدید با الگوريتم فیلم سازگاری دارد.
پژوهشهای تازه نشان میدهد که “deepfake” جعل یا تقلب عميق، امروز نسبت به هرزمان ديگر به راحتی مشکل ما را رفع مینمايد. اين الگوريتمی تازهی را که توسط دانشمندان درست شده است را میتوان با يک عکس آموزش داد و از آن جهت تقلب و ايجاد تغيیرات در چهره و صدای قربانی ايجاد نموده و برای بدنامی و در هم کوبيدن مخالفين آن را مورد بهره برداری قرار داد.
برای توليد فریب و تقلب متقاعد کننده و موضوع جعلی که به واسطهی GAN- generative adversarial nework ساخته میشود[1]. اين تکنيک حدود 5 سال پيش توسط دانشمندان دانشگاه مانتريال در کانادا ساخته شده است. فدیريک هينز پروفسور کامپيوتر دردانشگاه ليندشاپينگ سويدن میگويد که در اينجا سخن از پیشرفت تکنولوژیای هست که به کمک آن میتوان به توليد عکس پرداخت[2].
موترهای خود راننده با الگوريتم GAN آموزش میبينند
در اين موترها اطلاعات آموزشی برای سیستمها هوش مصنوعی ایجاد میکند. برای مثال، در خودروهای خود رانندهگی، الگوريتم برای تشخیص اشیا و موقعیتهای مختلف مورد استفاده قرار میگیرد. پس از آن سیستم باید با نمونه برداریهای زیادی از عکسهایی که افراد، دوچرخه، کالسکه و دیگر مواردی را که ممکن است در جادهها و جادهها ظاهر شوند، آموزش داده شود. با GAN، میتوان مقدار زیادی از دادههای آموزشی تولید کرد که در بعضی موارد ممکن است دشوار باشد. استفاده از روشهای دیگر مانند تصاویر ممکن است باعث تصادفات وسايل نقليه و موتر شود[3].
ما در دنيای بغرنج مجازی زندهگی میکنيم که هر روز ما را شگفت زده میکند. مرز ميان واقعيت و مجاز در حد ويرانگری فروکش کرده و تکنولوژی جديد توان فريب نقادترين انسانها را پيدا نموده و مارا با توطئه و شگردهای زياد فريب میدهد. دسترسی به چنين فنآوری در واقع تسلط بر روشهای ترويج افکار و انديشههای جديدی است که میتواند بر ما تا ابد حکومت کند. هرکه مالکيت بر زيرساخت ماشين مجازی داشته باشد از قدرت و خلاقيت کامل بر خوردار میشود.
اگر طرح اتهامات جنسی عليه اطرافیان اشرف غنی به ترویج سیستماتیک «فحشا» در ارگ با چنين ابزار و برنامههای جعلسازی تصويری و صوتی مجازی مستندسازی و تقويت گردد، بزرگترين تاثير و ضربهی روانی و تبليغاتی عليه چه کسی خواهد داشت؟ مسلمن زنان شاغلی که در دستگاههای دولتی و مراکز رسمی در حال کار هستند آسیب میبینند.
در اين شکی نيست که در ارگ عدهی با داد و ستد جنسی به نان و نوا رسيده اند، اما نمیتوان اين امر را تعميم داد. با آنهم با توجه به موقعیت شکنندهگی زنان در گیرودار این تبليغات، آنها شاخصترین قربانیهای این معرکه میباشند و از نظر روحی و روانی با تاثیرات جدی روبهرو میشوند. آنگاه که اين گونه اتهامات رابطه تنگاتنگ با روابطه جنسی پيدا میکند، زنان محکومان اصلی تلقی میشوند و بدون طی کردن روند پروسه حقوقی و اثبات آن در دادگاههای مشروع، به محکمه صحرایی تفکر مذهبی/طالبانی محکوم میگردند. این داد و ستدها، نگاه مردم را به سمت حذف زنان از جامعه سوق داده سدی برای پيشرفت و حق برابری آنها میگردد. زیرا ذهنيت عام جامعه دنبال گناهکار جنسی میگردد و يقينن زنان مناسبترين قربانیان اين حوضه کثيف سياسی میشوند. چنانچه حتا سخن از موجوديت فیلمهای جنسی در رسانههای اجتماعی مانند فيسبوک نيز دراين رابطه به ميان آمده است. حالا تصور کنيد اگر اين طالبان و مدافعان تفکر طالبانی از چنين تکنيکی برای بیاعتباری زنان و راندن آنها به خانه استفاده گردد، این همان چیزی است که سلويا فدريچی آنرا تکنيک شکار ساحرهها در عصر مدرن مینامد.
البته اتهامات جنسیسازی فساد زمانيکه در سطح اتهام است پيشداوریهای اعضای جامعه را نسبت به خود تا مرز اثبات تقويت میکند، چون شهروندان افغانستان اکثرن منتقد نيستند و مکانيسمها پژوهشگر توليد مواد تبليغاتی و دروغ پردازیهای مجازی را نمیدانند. ازاين رو اتفاقات تصادفی باعث اثبات دادههای ذهنی آنها شده که ربطی به واقعيت و حوادث عينی را نمیتوانند تشخيص بدهد. شهروند منتقد دنبال منبع اصلی و اسنادی میگردد تا خودش را به حقيقت موضوع آشنا کند و باجديت ميان حقيقت و دروغ تفاوت قايل است و حتا اگر اثبات حقيقت خلاف انتظار و به ضرر او تمام شود.
شکی نيست که دولت افغانستان به اندازه کافی فاسد و غرق در چور و چپاول بوده و سياستهای نيوليبرالی آن عرصه زندهگی برای اکثريت زحمتکشان افغانستان را تنگ نموده است. ولی نبايد از نظر دور داشت که در بازی کثيف سياسی افغانی انديشهی جنسی سازی فساد و فحشا که از جانب همکار ديروز و مخالف امروز اشرف غنی مطرح میشود سوال برانگيز و ممکن است در تبانی با سياست طالبانیسازی برای دور نگه داشتن زنان از سهمگيری در قلمرو قدرت خارج از خانه چيده شده باشد. اين سوال به معنای دفاع از دولت فاسد نبوده بلکه نشانهگيری فرهنگ داد و ستد وکليانتاليسم سياسی موجود در بازار قدرت سياسی در افغانستان میباشد.
پديده «جعل پر ژرف» در دنيای رسانهی نسبت به عمر رسانهها کوتاه است. اما استفاده ازآن کليت نظام اعتماد اجتماعی را زير سوال میبرد. در افشاگری و اتهام فحشا و شغل در برابر سکس سخن از حضور فیلمهای سکسی که احتمالن قربانیهايش را از ميان زنان انتخاب خواهد نمود، نيز روی صفحات فيسبوک مطرح شده است. هرچند اين مقاله سطحی است اما دلیلی که مرا وادار به نوشتن کرد این بود تا نگاهی به امکانات مجازی برای تقلب و توليد فريب و استفاده ابزاری از برنامه جعل عکس، فیلم، آواز و متنهای که مورد بهرهبرداری قرار میگيرد بياندازم.
از آنجا که با اين برنامه میتوان ویژهگیهای حرف زدن، تغيیرات صورت و ادا و اطوارهای طبيعی را بر روی یک عکس و فیلم قرار داد تا آن را به زندهگی تبدیل کند. این باعث میشود که فیلمها به طور قابل ملاحظه ای دستکاری شده باعث پیچیدهگی در تقلب گردد.
اين برنامهها روشهای کمهزینه برای ساخت دروغ و جعل با کیفیت بالا را ارائه میدهد. نگرانیهای وجود دارد که از اين برنامهها در قالب تبلیغات عليه انسان به کار گرفته و سواستفاده صورت بگيرد. مطمينن افراد وجود دارند که ازاين تکنيک برای انتقام گيری مانند توليد فیلمهای لخت و پورنوگرافيک مورد بهرهگيری، استفاده کنند.
چنانچه یاد آوری شد به موازات برنامههای کمپیوتری که فیلمهای جعلی را توليد میکند، برنامهها نیز توسعه مییابد و این میتواند آنها را نشان دهد. ابزار گزارش شده است، همچنین بر روی الگوريتمها نيز ساخته شده و يا در حال ساخته شدن است که به دنبال ناپیوستهگیهای کوچک در فیلمها و تصاوير، به سادهگی يک مقایسه تفاوت فیلم مشکوک با اصل را آشکار مینمايد.
زیر سوال بردن منابع به ما امکان میدهد تا دادههای را که به دست میآوريم درست تشخيص دهيم و از جعلی نبودنشان خاطر جمع باشيم و از اينرو قربانی دروغ و تقلب نگرديم.
منابع
Göteborgs universitetsbibliotek: Källkritik. http://www.ub.gu.se/skriva/kallkritik/. Åtkomstdatum 30 maj 2019.
”Vi är skapade av AI”. Forskning & Framsteg, 11 april 2019, https://fof.se/tidning/2019/4/artikel/vi-ar-skapade-av-ai.
[1] Forskning och framsteg 2019 4-38
[2] ”Vi är skapade av AI”. Forskning & Framsteg, 11 april 2019, https://fof.se/tidning/2019/4/artikel/vi-ar-skapade-av-ai.
[3] Ibid