<p style="text-align: justify;"><strong>فصل یازدهم: بمب اعتماد</strong></p> <p style="text-align: justify;">مقابله با تغییرات اقلیمی به شجاعت سیاسی برای اتخاذ تصمیمات سخت و همچنین آمادگی گسترده برای فداکاری در راه خیر عمومی نیاز دارد. اما دیگر از "خیر عمومی" چندان خبری نیست. اعتماد ما به دولت، نهادهای اجتماعی و حتی به یکدیگر در پایینترین سطح خود قرار دارد. اعتماد، مهمترین سرمایه هر جامعهای است. اعتماد به قضاوت و خرد جمعی شهروندان، پایه و اساس دموکراسی است.</p> <p style="text-align: justify;">هوش مصنوعی میتواند کاری کند که دولتها راحتتر از همیشه دغدغههای شهروندان خود را درک کنند و به آنها پاسخ دهند. اما اگر سریع عمل نکنیم، هوش مصنوعی احتمالاً همان اندک اعتمادی را که باقی مانده است، از بین خواهد برد. تولید انبوه دیپفیکها و اطلاعات نادرست با کمک هوش مصنوعی فرآیندهای دموکراتیک را با چالش روبهرو میکند، انتخابات را منحرف میسازد و شکافها و قطبیتهای اجتماعی را دامن میزند. همچنین هوش مصنوعی حس امنیت و حریم خصوصی ما را به چالش میکشد، زیرا ارتکاب کلاهبرداری برای مجرمان و سرقت دادهها و اطلاعات محرمانه توسط هکرها بهمراتب آسانتر خواهد شد. ناتوانی دولتها در مقابله با این تهدیدات ممکن است اعتماد به دموکراسی را بهشدت تضعیف کند. این روندها با همدیگر، اکوسیستم اطلاعاتی ما را که به شدت بیمار است، مسمومتر خواهند کرد؛ شاید بهگونهای مرگبار.</p> <p style="text-align: justify;">وقتی هیچکس نمیداند به چه چیزی باید باور کند، از دولت و نهادها فاصله میگیریم و به ترکیبی از بدبینی، خودخواهی، پارانویا و نیهیلیسم دچار میشویم. در حالی که از ترس و سردرگمی رنج میبریم، به گروههای همفکر و شبکههای غیررسمی پناه میبریم، هرگونه حس جامعهپذیری را از بین میبریم و در نهایت بحرانی ایجاد میکنیم که دیگر هیچکس قادر به حل آن نیست. علاوه بر این، هوش مصنوعی میتواند اصول آزادی و برابری را که دموکراسی ما بر آنها بنا شده است، تضعیف کند. آمریکا و دیگر کشورهای غربی ممکن است همیشه نتوانند به این آرمانها پایبند بمانند، اما هوش مصنوعی خطر آن را دارد که تعصبات سیستماتیک را تثبیت کند و در عین حال نژادپرستی، تبعیض جنسیتی و سایر پیشداوریها را پنهان سازد.</p> <p style="text-align: justify;">ما باید از دولتها بخواهیم که به سرعت برای رسیدگی به سه بُعد فوری که هوش مصنوعی جامعه دموکراتیک را تهدید میکند، اقدام کنند. (تهدید به اعتماد - امنیت و حریم خصوصی - آزادی و برابری) این تهدید آخر، یعنی تهدید به برابری، شاید مخرّبترین اثر هوش مصنوعی و در عین حال کمتر مورد توجه قرار گرفتهترین آنها باشد. ابتدا به این بُعد میپردازیم.</p> <p style="text-align: justify;"><strong>اگر توانایی پرداخت برای تعامل با انسان را داشته باشید...</strong></p> <p style="text-align: justify;">در عصر هوش مصنوعی فراگیر، شکافی بالقوه فاجعهبار در جامعه در حال شکلگیری است؛ میان کسانی که آنقدر ثروتمند هستند که بتوانند در محیطهای خدماتی و کاری خود با انسانها تعامل داشته باشند و بقیه ما که به طور فزایندهای تنها با هوش مصنوعی سروکار خواهیم داشت. این مسئله از هماکنون در بسیاری از حوزهها مشهود است. افراد ثروتمند بانکداران شخصی دارند و همچنان از آژانسهای مسافرتی استفاده میکنند که میتوانند از طریق تلفن با آنها تماس بگیرند و شاید حتی حضوری ملاقات کنند؛ اما بقیه ما باید از طریق اپلیکیشنها و وبسایتها خودمان به نیازهایمان رسیدگی کنیم. اگر مشکلی پیش بیاید، مجبوریم از اپلیکیشنهای چتبات استفاده کنیم یا ساعتها پشت خط منتظر بمانیم تا شاید بتوانیم با کسی در یک مرکز تماس در فیلیپین یا هند صحبت کنیم.</p> <p style="text-align: justify;">در آینده، این دوگانگی احتمالاً به حوزههای بیشتری از زندگی ما گسترش خواهد یافت. همانطور که دستیارهای هوش مصنوعی قدرتمندتر میشوند و توانایی رسیدگی به نیازهای بیشتری از مشتریان را پیدا میکنند، شرکتها ممکن است به دنبال کسب درآمد اضافی باشند و به مشتریانی که توانایی پرداخت هزینه بیشتری دارند اجازه دهند مشکلاتشان توسط یک انسان مهربان حل شود. ثروتمندان همچنان برای تنظیم زندگی خود از دستیارهای شخصی انسانی استفاده خواهند کرد؛ بقیه ما باید به نسخه دیجیتال قناعت کنیم. ثروتمندان همچنان معلم خصوصی برای فرزندانشان استخدام خواهند کرد؛ اما شاید فرزندان ما بهطور فزایندهای توسط هوش مصنوعی آموزش ببینند.</p> <p style="text-align: justify;">همانطور که در فصل چهارم دیدیم، در حالی که نخبگان تحصیلکرده در محل کار از درجه بالایی از خودمختاری برخوردار خواهند بود و با کمک خلبانهای هوش مصنوعی توانمند میشوند، کارگران یقهآبی و بخش خدمات ممکن است به سایبورگ تبدیل شوند؛ هنوز انسان باشند، اما هر لحظه کاری آنها تحت کنترل و دستور یک مدیر هوش مصنوعی بیرحم و پرتقاضا باشد.</p> <p style="text-align: justify;">بهتدریج، عاملیت انسانی به یک کالای لوکس تبدیل خواهد شد. در هر محیطی، از دست دادن عاملیت، ثبات را از بین میبرد و ممکن است موجب شورش شود. اما در یک دموکراسی، افزایش نابرابری در تجربه روزمره بین دارندگان امکانات و محرومان، بهویژه مخرب است. این مسئله کسانی را که به تعامل با هوش مصنوعی محدود شدهاند، تلختر و نسبت به نخبگان خشمگینتر و بیاعتمادتر میکند. این تصور را از بین میبرد که جامعه و سیستم حکومتی ما برای همه کار میکند. این روند، پیوندهایی را که ما را بهعنوان یک ملت به هم متصل میکند، شل میکند و در نهایت، جامعهای دوطبقه ایجاد میکند که بهطور فزایندهای زندگیهای جداگانه و نابرابری را تجربه میکنند.</p> <p style="text-align: justify;"><strong>عدالت نابرابر</strong></p> <p style="text-align: justify;">شکاف میان افرادی که توانایی برخورداری از تعامل انسانی را دارند و دیگران، تنها نابرابریای نیست که هوش مصنوعی آن را تشدید خواهد کرد. اگر این فناوری را بهدرستی طراحی، مهندسی و استفاده نکنیم، هوش مصنوعی میتواند تلاشها برای بهبود برابری نژادی و جنسیتی را به خطر اندازد. دموکراسی آمریکایی بارها در تحقق اصول بنیادی خود، یعنی آزادی و برابری فرصتها، شکست خورده است. اما این بدان معنا نیست که باید از این آرمانها دست بکشیم.</p> <p style="text-align: justify;">هوش مصنوعی میتواند به ابزاری برای پیشبرد برابری تبدیل شود. در تئوری، این فناوری باید به ما امکان دهد تا از پیشداوریها و تعصبات قضاوت انسانی فراتر برویم. اما شیوهای که بسیاری از سیستمهای هوش مصنوعی ساخته میشوند، تأثیری کاملاً معکوس دارد. این سیستمها با یادگیری از دادههای تاریخی تولید شده توسط انسان، غالباً تعصبات موجود را تأیید و حتی تشدید میکنند. بدتر آنکه، این گرایشها را در پشت نقاب شبهعینیت پنهان میکنند و نهادها را از پاسخگویی در قبال نتایج ناعادلانه و نادرست دور میسازند.</p> <p style="text-align: justify;">این موضوع از دو جنبه خطرناک است. اول اینکه، ذاتاً نادرست است و به افراد آسیب واقعی وارد میکند. دوم اینکه، ایمان به پروژه آمریکایی را تضعیف میکند. برخی از نگرانکنندهترین نمونههای تعصب پنهانشده مربوط به استفاده از هوش مصنوعی در اجرای قانون است. یک الگوریتم که بهطور گسترده برای کمک به قضات و هیئتهای عفو مشروط در تصمیمگیریهای مبتنی بر "ریسک" به فروش میرسید، مشخص شد که احتمال بیشتری دارد آزادی زودهنگام را برای مجرمان سفیدپوست توصیه کند تا سیاهپوستانی که جرایم مشابهی مرتکب شده بودند. این الگوریتم نرخ بازگشت به جرم مجرمان سیاهپوست را بیش از حد برآورد میکرد و نرخ بازگشت سفیدپوستان را کمتر از واقعیت نشان میداد.</p> <p style="text-align: justify;">ابزارهایی که ادعا میکنند میتوانند به پلیس در پیشبینی "نقاط جرمخیز" کمک کنند، نیز منجر به بازداشتهای نامتناسب در محلههای سیاهپوست و اقلیتهای دیگر میشوند. دلیل اصلی این امر آن است که این سیستمهای پیشبینیکننده بر اساس دادههای دستگیریهای گذشته آموزش دیدهاند. این دادهها بازتابی از تعصبات سیستماتیک در پلیسگری هستند، جایی که ادارات پلیس اغلب منابع بیشتری صرف محلههای فقیرتر و عمدتاً غیرسفیدپوست میکنند و استانداردها و روشهای متفاوتی مانند سیاستهای "توقف و تفتیش" را در آنجا به کار میگیرند.</p> <p style="text-align: justify;">استفاده از دادههای مربوط به دستگیری بهجای دادههای محکومیت نیز میتواند مشکلساز باشد. «ما از ابتدا دادههای نادرستی را گرفتیم و سپس ابزارهایی ساختیم که آنها را بدتر کرد»، کتی واشنگتن<a href="#_ftn1" name="_ftnref1">[1]</a>، پژوهشگری که در دانشگاه کلرادو بولدر<a href="#_ftn2" name="_ftnref2">[2]</a> به مطالعه تعصب الگوریتمی میپردازد، به "MIT Technology Review" گفت: «استفاده از نرمافزار تشخیص چهره توسط ادارات پلیس نیز مشکلزا است، زیرا اکثر این سیستمها برای افرادی با رنگ پوست تیره، و بهویژه برای زنان سیاهپوست، دقت کمتری دارند.»</p> <p style="text-align: justify;"> اپلیکیشن جنجالی تشخیص چهره Clearview بخش زیادی از دادههای خود را از طریق خزش در شبکههای اجتماعی جمعآوری کرده است، که طبق چندین شکایت، شرایط و ضوابط این سایتها و همچنین قوانین ایالتی در مکانهایی مانند ایلینوی را نقض کرده است. با این وجود، Clearview در میان ادارات پلیس آمریکا به طور گستردهای مورد استفاده قرار گرفته، علیرغم نگرانیها درباره حریم خصوصی دادهها و نبود آزمایشهای مستقل برای تأیید دقت و انصاف آن. با وجود تمام این کاستیها که توجه گسترده رسانهها را نیز به خود جلب کردهاند، نهادهای مجری قانون تنها به استفاده از روشهای "پلیسگری دقیق" روی آوردهاند. اتکا به تحلیل دادهها به ادارات پلیس اجازه میدهد که بیطرف به نظر برسند و از پاسخگویی در قبال تصمیمگیری درباره محل گشتزنی افسران شانه خالی کنند. با توجه به سابقه پلیسگری نژادپرستانه در آمریکا، بسیار بعید است که سیستمی که بهطور ساده و بیهدف از دادههای گذشته ساخته شده باشد، کاری غیر از تقویت تعصبات موجود انجام دهد. در عوض، نرمافزار هوش مصنوعی برای استفاده در اجرای قانون باید بهطور خاص برای جبران نژادپرستی گذشته طراحی شود و برابری را بهعنوان هدفی در کنار دقت پیشبینی در نظر بگیرد. این بدان معناست که اساساً هر سیستمی از این دست باید جرایم مرتکب شده توسط افراد رنگینپوست را با وزنی کمتر ارزیابی کند. اگرچه ممکن است نتیجه کلی عادلانه باشد، نرمافزاری که به این شیوه طراحی شده است احتمالاً کسانی را که خواهان عدالت کاملاً بدون تبعیض نژادی هستند، ناراحت خواهد کرد.</p> <p style="text-align: justify;">اتحادیه اروپا در قانون هوش مصنوعی خود استفاده از نرمافزار تشخیص چهره زنده را برای اجرای قانون ممنوع کرده است (این نرمافزار تنها برای تحلیل ویدئوهای ضبطشده قابل استفاده است) و تمام استفادههای پلیسی از هوش مصنوعی را ذاتاً "پرخطر" طبقهبندی کرده است، به این معنا که مشمول سختگیرانهترین پروتکلها برای ارزیابی خطرات احتمالی، از جمله تعصب و کاهش آنها است.</p> <p style="text-align: justify;">آمریکا نیز باید این استانداردهای سختگیرانه را برای هوش مصنوعی در پلیسگری و عدالت اجرا کند. با توجه به اینکه تصمیمات انسانی اغلب چقدر مغرضانه هستند، برخی استدلال میکنند که سیستمهای هوش مصنوعی عدالت را بهبود خواهند داد. مطالعهای از اتحادیه آزادیهای مدنی آمریکا درباره ابزار ارزیابی ریسک که در سال ۲۰۱۷ در نیوجرسی معرفی شد، نشان داد که این ابزار میتواند تعداد افراد زندانی در انتظار محاکمه را تا ۲۰ درصد کاهش دهد. اما یک شرط بزرگ وجود داشت، این ابزار تنها در صورتی چنین تأثیری خواهد داشت که بهدرستی طراحی و اجرا شود.</p> <p style="text-align: justify;">در کنتاکی، بهعنوان مثال، مطالعهای نشان داد که یک نمره ریسک طراحی شده برای کمک به قضات میتوانست نرخ زندانی شدن را کاهش دهد، اما قضات نمرات را بهطور ناسازگار تفسیر میکردند. شاید بهتر باشد به هشدار سرنوشتساز خالق "الایزا"، جوزف وایزنبام، توجه کنیم: «حتی اگر ماشینها اثباتاً عینیتر از انسان باشند، باید از تصمیمگیریهایی که بر آزادی افراد تأثیر میگذارند، کنار گذاشته شوند.»</p> <p style="text-align: justify;">تصمیمهایی که چنین پیامدهای بزرگی برای زندگی انسان دارند باید تنها توسط کسی گرفته شوند که بداند زندگی داشتن به چه معناست. در عدالت، بهدنبال چه هستیم؟ عینیت؟ یا چیزی دیگر؛ کاربرد عادلانه تجربه ذهنی که فضایی برای همدلی انسانی باقی بگذارد؟ بله، نگرانیها درباره ناعادلانه بودن، تعصب انسانی، ناسازگاری و فساد همان دلایلی بودند که دولتها را به پذیرش امتیازدهی ریسک و الگوریتمها سوق دادند.</p> <p style="text-align: justify;">اما اغلب اوقات، مقامات در پرسیدن سوالات سخت درباره دادههایی که این الگوریتمها از آنها مشتق شدهاند، کوتاهی کردهاند و در نظارت بر تأثیر آنها اهمال کردهاند. بارها، الگوریتمها و هوش مصنوعی به بهانهای راحت برای مقامات تبدیل شدهاند تا از مسئولیتپذیری در قبال نتایج زیانبار یا شرمآور فرار کنند. «ما فقط الگوریتم را دنبال کردیم» به نسخه جدیدی از «من فقط دستورات را اجرا میکردم» تبدیل شده است.</p> <p style="text-align: justify;">این روشی است برای مقامات تا از مسئولیت و پاسخگویی شانه خالی کنند. ما نباید به این آسانی سیاستمداران و کارمندان دولتی را معاف کنیم. و نباید بهخاطر راحتی بیشتر، قضاوت حرفهای، استدلال منطقی و شهود اخلاقی را رها کنیم و کورکورانه به این باور برسیم که هوش مصنوعی بهترین را میداند.</p> <p style="text-align: justify;"><strong>فرصت نابرابر</strong></p> <p style="text-align: justify;">سیستم عدالت تنها عرصهای نیست که در آن تعصبات نژادی و جنسیتی میتوانند پیامدهای عمیقی بر زندگی افراد داشته باشند. این مسئله در حوزه مالی نیز صادق است، جایی که هوش مصنوعی میتواند عصر جدیدی از "خطکشی دیجیتالی" را به همراه داشته باشد. همچنین در حوزه سلامت، این تعصبات میتوانند تفاوت میان زندگی و مرگ را رقم بزنند.</p> <p style="text-align: justify;">در سال ۲۰۱۹، یک مطالعه پیشگام نشان داد که یک ابزار ارزیابی ریسک رایج، که برای سنجش نیازهای بهداشتی بیش از ۱۰۰ میلیون آمریکایی استفاده شده بود، نسبت به بیماران سیاهپوست مغرض بود. این بیماران در هر سطح معینی از امتیاز ریسک، بهطور قابلتوجهی بیمارتر از بیماران سفیدپوست بودند. پژوهشگران نتیجه گرفتند که اگر این الگوریتم منصفانه عمل میکرد، درصد بیماران سیاهپوستی که کمک بیشتری برای شرایطشان دریافت میکردند، از ۱۸ درصد به ۴۷ درصد افزایش مییافت.</p> <p style="text-align: justify;">دلیل اینکه این سیستمهای هوش مصنوعی مغرض هستند، دادههایی است که به آنها داده شده است. بهعنوان مثال، تخمین زده میشود که بیماران سیاهپوست کمتر از ۵ درصد از شرکتکنندگان در آزمایشهای بالینی در ایالات متحده را تشکیل میدهند. همچنین، پزشکان و پرستاران سالها بیماران سیاهپوست و دیگر اقلیتها را در شرایطی مانند درد، کمتر به آنها توجه کردهاند، که گاهی ناشی از باورهای غلط درباره تفاوتهای نژادی در آستانه تحمل درد یا دیگر تصورات اشتباه بیولوژیکی بوده است.</p> <p style="text-align: justify;">همانطور که در مورد هوش مصنوعی در سیستم عدالت مشاهده میشود، هوش مصنوعی در حوزه سلامت نیز میتواند تعصبات را پشت نقاب کمال فنی پنهان کند. اگر متخصصان سلامت از تعصبات پنهان در نرمافزاری که برای تشخیص و درمان بیماران استفاده میکنند آگاه نباشند، ممکن است به اشتباه تصور کنند که چنین فناوریهایی ذاتاً عینیتر و دقیقتر از قضاوت خودشان هستند. اما، دقیقاً مانند اجرای قانون، اگر سیستمهای هوش مصنوعی بهطور خاص برای غلبه بر تعصبات تاریخی طراحی و آموزش داده شوند، میتوانند ابزارهای قدرتمندی برای اصلاح نابرابریهای گذشته باشند.</p> <p style="text-align: justify;">در خدمات مالی، خطر تعصبات نژادی و جنسیتی به همان اندازه مخرّب است. وامدهندگان در ایالات متحده موظفند اطمینان حاصل کنند که شیوههای وامدهی آنها تأثیر نامتناسبی بر گروههای تحت حمایت، مانند لاتینتبارها یا زنان، ایجاد نمیکند. با این حال، نهادهای نظارتی و دادگاهها همچنین اعلام کردهاند که وامدهندگان میتوانند از معیارهایی استفاده کنند که بهطور سنتی در تعیین ریسک اعتباری استفاده میشده است، مانند درآمد و امتیازات اعتباری، حتی اگر این متغیرها با جنسیت و نژاد همبستگی بالایی داشته باشند.</p> <p style="text-align: justify;">اما الگوریتمهای هوش مصنوعی اکنون میتوانند با استفاده از دادههای دیگری پیشبینیهایی درباره بازپرداخت وام انجام دهند که ممکن است در ظاهر خنثی به نظر برسند، اما در عمل نقش جایگزینی برای یک گروه تحت حمایت ایفا میکنند.</p> <p style="text-align: justify;">یک مطالعه اروپایی نشان داد که پنج نقطه داده بهتر از امتیازات اعتباری، پیشبینیکننده بازپرداخت وام بودند: برند دستگاه (مک یا پیسی)، نوع دستگاه (گوشی، تبلت یا کامپیوتر)، زمان درخواست وام، دامنه ایمیل (جیمیل یا هاتمیل) و اینکه آیا آدرس ایمیل شخص شامل بخشی یا تمام نام او میشود. اما مطالعه دریافت که هر یک از این موارد با یک گروه تحت حمایت (مانند احتمال بیشتر داشتن مک توسط سفیدپوستان) همبستگی داشت و ممکن است طبق قوانین وامدهی ایالات متحده غیرقانونی محسوب شود.</p> <p style="text-align: justify;">با این حال، وامدهندگان میتوانند قانون "تأثیر نامتناسب" را با نشان دادن اینکه حذف یک نقطه داده از الگوریتم ریسک اعتباری آنها باعث کاهش دقت قیمتگذاری میشود، دور بزنند. این موضوع کار را برای وامدهندگان و بیمهگران بسیار آسان میکند تا این آزمون را دور بزنند. اما اگر به شیوهای خلاقانه و مسئولانه عمل کنیم، هوش مصنوعی میتواند در واقع وامدهی را برای گروههایی که از نظر تاریخی محروم بودهاند، گسترش دهد. اتحادیه اعتباری VyStar، یکی از بزرگترین اتحادیههای اعتباری آمریکا، از نرمافزار امتیازدهی ریسک اعتباری یک استارتاپ به نام Zest AI استفاده کرد تا تأییدیههای کارت اعتباری، بهویژه برای اقلیتها و گروههای تاریخی محروم، را بیش از ۲۰ درصد افزایش دهد، در حالی که خطر نکول را ثابت نگه داشت. جنی ویپرمَن<a href="#_ftn3" name="_ftnref3">[3]</a>، مدیر ارشد وامدهی VyStar میگوید: «این یعنی هزاران نفر که در غیر این صورت به کارت اعتباری دسترسی نداشتند».</p> <p style="text-align: justify;"><strong>تشدید تعصب</strong></p> <p style="text-align: justify;">رونق فعلی سیستمهای هوش مصنوعی مولد این پتانسیل را دارد که نابرابری را به شدت تقویت کند. دلیل این امر آن است که این سیستمها نهتنها تعصبات موجود را بازتولید میکنند، بلکه میتوانند آنها را تشدید نیز کنند. بار دیگر، مشکل از دادههای تاریخی سرچشمه میگیرد.</p> <p style="text-align: justify;">بهعنوان مثال، اگر به یک مدل زبانی بزرگ جملهای با ضمیر مبهم مانند «پزشک با پرستار تماس گرفت چون او برای شیفت صبحگاهی دیر کرده بود» بدهید و بپرسید که «او» به چه کسی اشاره دارد؟ این هوش مصنوعی بیشتر احتمال دارد پاسخ دهد که «او» به پرستار اشاره دارد. در آزمایش چهار مدل زبانی عمومی، پژوهشگران دریافتند که این مدلها تعصب را تشدید میکنند؛ این مدلها هفت برابر بیشتر احتمال داشت که یک ضمیر زنانه را به یک شغل کلیشهای زنانه نسبت دهند، در حالی که تنها ۳.۸ برابر بیشتر احتمال داشت یک ضمیر مردانه را به شغلی که تاریخی به مردان مربوط بوده است مرتبط کنند.</p> <p style="text-align: justify;">مدلهای هوش مصنوعی تولید تصویر حتی میتوانند مسئلهسازتر باشند. همانطور که در فصل هشتم اشاره شد، اگر از نرمافزار هوش مصنوعی تولید تصویر میدجرنی بخواهید «یک پزشک آفریقایی سیاهپوست که از کودکان سفیدپوست رنجکشیده مراقبت میکند» را به تصویر بکشد، (کاری که گروهی از پژوهشگران در مطالعهای منتشرشده در مجله معتبر پزشکی The Lancet انجام دادند.) مدل بهدرستی پاسخ نمیدهد. بیش از ۹۹ درصد از موارد، تصویر یک پزشک سفیدپوست و کودکان سیاهپوست را تولید میکند.</p> <p style="text-align: justify;">مطالعه دیگری نشان داد که تولیدکنندههای متن به تصویر تمایل دارند افراد در مشاغل با درآمد بالا را با پوستی روشنتر نسبت به افراد در مشاغل با درآمد پایینتر به تصویر بکشند. همچنین احتمال بیشتری وجود داشت که افراد با درآمد بالا را بهعنوان مرد نشان دهند. برای حل این تعصب، میتوان اقدامات مختلفی انجام داد. انتخاب بهتر دادههای آموزشی میتواند کمککننده باشد. همچنین میتوان مدل را بهطور عمدی بر روی نمونههای غیرمعمول (outliers) بیشآموزی کرد یا با ایجاد مجموعه دادههای مصنوعی که با مثالهای تولیدشده توسط کامپیوتر شکافهای موجود در مجموعه دادههای واقعی را پر میکنند، تعصب را کاهش داد.</p> <p style="text-align: justify;">اما شرکتهای فناوری باید این اقدامات را آگاهانه و با قصد قبلی انجام دهند. در حال حاضر، بسیاری از شرکتها چنین نمیکنند، که این یک مشکل است، زیرا مدلهای هوش مصنوعی مولد بهسرعت در برنامههای مختلف در تجارت، آموزش و دولت ادغام میشوند.</p> <p style="text-align: justify;">هوش مصنوعی الزاماً نابرابریهای اجتماعی را تشدید نمیکند. اما شرکتهای فناوری باید تحت فشار قرار بگیرند تا هوش مصنوعی را بهعنوان نیرویی برای برابری توسعه دهند. قانون هوش مصنوعی اتحادیه اروپا، با ارزیابیهای مبتنی بر ریسک خود، گامی در این جهت است و ممکن است به یک استاندارد جهانی دوفاکتو<a href="#_ftn4" name="_ftnref4">[4]</a> تبدیل شود، زیرا برای هر شرکتی که مشتریان یا کارمندانی در اروپا داشته باشد، اعمال خواهد شد.</p> <p style="text-align: justify;">ایالات متحده در مقررات خود برای هوش مصنوعی باید آزمایش مدلها برای شناسایی تعصب را اجباری کند. ما باید برای هوش مصنوعیای تلاش کنیم که نتایج عادلانهتر و برابرتر به همراه داشته باشد. کمیسیون تجارت فدرال<a href="#_ftn5" name="_ftnref5">[5]</a> (FTC) میتواند در اجرای مقررات برای سیستمهای هوش مصنوعی چندمنظوره پیشگام شود. سیستمهای خاصتر هوش مصنوعی، مانند آنهایی که برای بیمارستانها (که در فصل ۹ بررسی شدند) توسعه داده شدهاند، نیاز به توجه سایر نهادها دارند.</p> <p style="text-align: justify;">فدرال رزرو<a href="#_ftn6" name="_ftnref6">[6]</a>، کمیسیون بورس و اوراق بهادار<a href="#_ftn7" name="_ftnref7">[7]</a> (SEC) و نهادهای نظارتی بیمه ایالتی نیز باید به دنبال الگوریتمهایی باشند که نتایج مالی عادلانهتری به همراه دارند.</p> <p style="text-align: justify;">کسبوکارها نیز نقش بزرگی در فشار بر شرکتهای فناوری برای اطمینان از عدم تبعیض نرمافزارهایشان دارند. گاهی، این ممکن است به معنای عدم شتابزدگی در استفاده از مدلهای زبانی بزرگ باشد. مدلهای کوچکتر هوش مصنوعی راحتتر قابل تجزیهوتحلیل و کنترل هستند.</p> <p style="text-align: justify;"><strong>جشن کلاهبرداران و هکرها</strong></p> <p style="text-align: justify;">تا اینجا، مسائل اعتماد که بررسی کردیم، عمدتاً ناشی از بیدقتی در نحوه ساخت و استفاده از هوش مصنوعی بود. اما واضحترین چالش برای اعتماد، نتیجهی استفادهی عمدی از هوش مصنوعی برای گمراه کردن و فریب دادن است. هوش مصنوعی شاید بهترین هدیه به کلاهبرداران از زمان اختراع اینترنت باشد. زمانی، اشتباهات گرامری و اصطلاحات عجیب در ایمیلهایی که ادعا میکردند از طرف بانک شما هستند، نشانههای آشکاری بودند که یک کلاهبردار نیجریهای یا یک گروه روسی سعی دارند رمز عبور یا جزئیات حساب شما را بدزدند. حالا حتی افرادی که زبان مادریشان انگلیسی نیست، میتوانند با استفاده از ChatGPT و دیگر مدلهای زبانی بزرگ ایمیلهای فیشینگ متقاعدکنندهای بنویسند.</p> <p style="text-align: justify;">آن تماس تلفنی مضطرب و پر از گریه از طرف خواهرزادهتان که میگوید گروگان گرفته شده و اگر فوراً به گروگانگیران پول نفرستید، او را خواهند کشت؟ ممکن است اصلاً خودش نباشد. همین حالا، کلاهبرداران از نرمافزارهای تقلید صدا برای انجام چنین تماسهایی استفاده میکنند و بهویژه افراد مسن را هدف قرار میدهند. (در یک مورد، برای متقاعد کردن قربانی به پرداخت پول، کلاهبرداران از نرمافزار هوش مصنوعی برای تقلید صدای دختر قربانی استفاده کردند که در حال فریاد زدن از درد بود و ادعا میکرد گروگانگیران او را با چاقو زخمی کردهاند.)</p> <p style="text-align: justify;">تقلید صدا همچنین برای جعل صدای مدیران عامل شرکتها استفاده میشود، به این صورت که به مدیران مالی بیخبر دستور میدهند تا پرداختهایی را به حسابهای بانکی برای معاملات محرمانه انجام دهند. توانایی ایجاد دیپفیکهای زنده و تغییر چهره در زمان واقعی نیز امکان برگزاری تماسهای زوم را فراهم کرده است که در آن فردی که روی صفحه نمایش است ممکن است آن کسی که به نظر میرسد نباشد. یک شرکت به نظر میرسد در یک کلاهبرداری با استفاده از تغییر چهره زنده در یک تماس زوم، مبلغی در حدود ۲۵ میلیون دلار از دست داده باشد.</p> <p style="text-align: justify;">همانطور که هوش مصنوعی میتواند بهعنوان دستیار برنامهنویسی مفید باشد، میتواند برای هکرها نیز یک موهبت باشد و کار را برای افرادی با مهارت فنی کمتر برای اجرای حملات سایبری پیچیده آسانتر کند. شرکت امنیت سایبری Check Point نشان داد که ChatGPT میتواند برای برنامهریزی هر مرحله از یک هک استفاده شود؛ از نوشتن ایمیل فیشینگ متقاعدکننده تا تولید بدافزار اجرایی و جاسازی آن در یک پیوست ایمیل. مایکروسافت و OpenAI در اوایل سال ۲۰۲۴ اعلام کردند که حسابهای ChatGPT مرتبط با هکرهای وابسته به روسیه، چین، ایران و کره شمالی را شناسایی و مسدود کردهاند؛ هکرهایی که سعی داشتند از ChatGPT برای اصلاح روشهای حمله خود استفاده کنند.</p> <p style="text-align: justify;">در دارکوب<a href="#_ftn8" name="_ftnref8">[8]</a>، هکرها مدلهای زبانی با نامهایی مانند FraudGPT و WormGPT را بازاریابی میکنند که گفته میشود برای طراحی بدافزارهای مؤثر و اجرای کمپینهای فیشینگ آموزش دیدهاند. مدلهای زبانی دیگری نیز توسط مجرمان سایبری و جاسوسان برای تحلیل کد نرمافزاری سیستمهایی که امیدوارند هک کنند، استفاده میشوند تا بهصورت خودکار به دنبال نقاط ضعف بگردند.</p> <p style="text-align: justify;">حتی پیش از ظهور چتباتهای هوش مصنوعی، بستههای بدافزاری که با مبالغ ناچیزی در دارکوب قابل خرید بودند، وجود داشتند، همچنین گروههایی که خدمات "هکر اجارهای" ارائه میدادند. این گزینهها حتی راحتتر از تلاش برای داشتن یک مدل زبانی بزرگ برای نوشتن یک بسته بدافزار سفارشی هستند. اما کارشناسان امنیت سایبری میگویند که در دست یک هکر کمی آگاهتر، مدلهای زبانی بزرگ میتوانند زمان صرفشده را کاهش داده و احتمال موفقیت تلاشهای فیشینگ را افزایش دهند.</p> <p style="text-align: justify;"><strong> </strong></p> <p style="text-align: justify;"><strong>هوش مصنوعی در برابر هوش مصنوعی</strong></p> <p style="text-align: justify;">در حالی که جهانی پر از هکهای تولیدشده توسط هوش مصنوعی ترسناک به نظر میرسد، بدافزار یکی از حوزههایی است که در آن هوش مصنوعی میتواند بهطور مؤثری با هوش مصنوعی مبارزه کند. در بلندمدت، هوش مصنوعی برای مدافعان امنیت سایبری نسبت به مهاجمان مزیت بیشتری خواهد داشت.</p> <p style="text-align: justify;">درست است که هکرها میتوانند از هوش مصنوعی برای جستجوی آسیبپذیریها در کدهای نرمافزاری استفاده کنند، اما کارشناسان امنیت سایبری نیز میتوانند همین کار را انجام دهند؛ به دنبال نقاط ضعف بگردند و آنها را پیش از آنکه هکرها شناسایی کنند، ترمیم کنند. حتی میتوانند چتباتها را طوری تنظیم کنند که نقش مهاجمان را بازی کنند و شبکههای خود را آزمایش کنند (که به آن "رد تیم<a href="#_ftn9" name="_ftnref9">[9]</a>" گفته میشود)، به دنبال نقاط ضعف بگردند و آنها را شناسایی کنند.</p> <p style="text-align: justify;">یکی از بزرگترین چالشهای امنیت سایبری، کمبود تحلیلگران آموزشدیده و افسران امنیت اطلاعات است. در این زمینه، هوش مصنوعی میتواند بهعنوان یک کمکخلبان حیاتی عمل کند. گوگل نسخهای از مدل زبانی بزرگ PaLM 2 خود را بهطور خاص برای کمک به مقامات امنیت سایبری آموزش داده است.</p> <p style="text-align: justify;"> همچنین، برنامههای امنیت سایبری مبتنی بر هوش مصنوعی از شرکتهایی مانند Darktrace وPalo Alto Networks وجود دارند که شبیه به سیستم ایمنی بدن انسان عمل میکنند؛ بهطور خودکار ناهنجاریهای شبکه را شناسایی، تهدیدها را مهار و سپس به اصلاح آنها میپردازند، آن هم با سرعتی بیشتر از آنچه هر انسانی قادر به انجام آن است.</p> <p style="text-align: justify;">در امنیت سایبری، دادهها اهمیت زیادی دارند و در اینجا مدافعان باید مزیت متمایزی داشته باشند. همانطور که اوان رایزر<a href="#_ftn10" name="_ftnref10">[10]</a>، مدیرعامل شرکت نرمافزاری امنیت سایبری Abnormal، اشاره میکند، مدافعان بیشتر از مهاجمان درباره رفتار شبکهها و کدهای نرمافزاری خود اطلاعات دارند، در حالی که مهاجمان تنها به اطلاعات عمومی یا دادههایی که ممکن است در حین جاسوسی جمعآوری کرده باشند، دسترسی دارند. این برتری، احتمال خطای مهاجمان را افزایش میدهد و شانس شناسایی آنها توسط نرمافزارهای نظارت بر شبکه مجهز به هوش مصنوعی را بیشتر میکند.</p> <p style="text-align: justify;">مایا هوروویتز<a href="#_ftn11" name="_ftnref11">[11]</a>، معاون پژوهش در شرکت Check Point، معتقد است که هوش مصنوعی مولد میتواند یک "مزیت تاکتیکی" برای مهاجمان باشد، اما برای مدافعان میتواند "استراتژیک" عمل کند، به آنها کمک کند شبکههای خود را مؤثرتر دفاع کنند.</p> <p style="text-align: justify;">اما این مزیت مدافعان تنها در مورد روشهای سنتی هک صدق میکند. هوش مصنوعی مولد یک سطح کاملاً جدید از آسیبپذیریها را ایجاد کرده است که امنیت آن بسیار دشوار است. سیستمهای چتبات هوش مصنوعی در برابر حملات "تزریق دستورات" (prompt injection) آسیبپذیر هستند؛ جایی که فردی با نیت سوء، ورودیهایی به شکل متن یا تصویر به سیستم ارائه میدهد که آن را فریب میدهد تا پاسخهایی تولید کند که نباید تولید میکرد. به همین دلیل، شرکتهایی که چتباتهای هوش مصنوعی را برای خدماتی مانند پشتیبانی مشتری یا کمک به کارمندان استفاده میکنند، باید بهشدت مراقب دادهها و ابزارهایی باشند که مدلهای زبانی بزرگ زیرساختی میتوانند به آنها دسترسی پیدا کنند. پیش از این، مواردی کشف شده است که چتباتها اطلاعات حساس افراد را در پاسخ به درخواستها فاش کردهاند.</p> <p style="text-align: justify;">در برخی موارد، بهتر است مدلهای هوش مصنوعی بهطور اختصاصی برای هر نقش در یک کسبوکار طراحی شوند، زیرا این جداسازی دسترسی دادهها را محدود میکند. عمل کردن بر اساس اصل "دسترسی به اطلاعات فقط در صورت نیاز" باید هم برای چتباتها و هم برای کارمندان رعایت شود.</p> <p style="text-align: justify;">شرکتها همچنین باید در مورد استفاده از مدلهای زبانی منبعباز برای ساخت این چتباتها بسیار محتاط باشند. محققان امنیتی نشان دادهاند که اگر هکرها به وزنهای یک مدل هوش مصنوعی دسترسی پیدا کنند، میتوانند نرمافزاری تولید کنند که بهطور خودکار حملات تزریق دستورات را ایجاد کند. حملاتی که اغلب بهصورت رشتههایی از کاراکترهای بیمعنی به نظر میرسند که به دستورات اضافه میشوند و مطمئناً محدودیتهای امنیتی مدل را دور میزنند.</p> <p style="text-align: justify;">یکی دیگر از اهداف جدید هکرها، دادههایی است که هوش مصنوعی بر روی آنها آموزش میبیند. هوروویتز بهویژه درباره هکرهایی که برای دولتهای متخاصم کار میکنند و به "آلودگی دادهها" (data poisoning) میپردازند، ابراز نگرانی میکند. دستکاری منابع دادهای که سیستمهای هوش مصنوعی بر اساس آنها آموزش میبینند و افزودن نمونههای آموزشی که بهطور عمدی باعث میشود سیستمهای هوش مصنوعی اشتباه طبقهبندی کنند یا خروجیهای نادرست ارائه دهند.</p> <p style="text-align: justify;">این تهدید میتواند بهویژه برای سیستمهای هوش مصنوعی نظامی که برای طبقهبندی تصاویر پهپادی از نیروهای دشمن و تسلیحات طراحی شدهاند، مشکلساز باشد. پژوهشگران نشان دادهاند که با تنها چند مثال دقیقاً انتخابشده، نرمافزارهایی از این دست میتوانند فریب بخورند و مثلاً تصویر یک لاکپشت را بهعنوان یک تفنگ طبقهبندی کنند.</p> <p style="text-align: justify;">دولتها باید رویکردی پیشدستانه و قاطع برای حفاظت از دادههای حساس اتخاذ کنند. دولت بایدن تمرینهای "رد تیم" را برای آزمایش آسیبپذیریهای پیشرفتهترین مدلهای هوش مصنوعی چندمنظوره برگزار کرده است. دولت فدرال در حال تدوین دستورالعملها و پروتکلهایی در مورد امنیت هوش مصنوعی است که ممکن است در نهایت پایه مقرراتی شوند که برای وزارتخانهها و پیمانکاران دولتی اعمال میشود.</p> <p style="text-align: justify;">اما کارهای بیشتری باید برای بهبود امنیت در صنایع مختلف، بهویژه در بخشهای مالی و سلامت انجام شود. گری گنسلر<a href="#_ftn12" name="_ftnref12">[12]</a>، رئیس کمیسیون بورس و اوراق بهادار آمریکا، هشدار داده است که اگر دولت بهسرعت اقدام به حفاظت از بازارهای مالی در برابر آسیبپذیریهای ایجادشده توسط هوش مصنوعی نکند، یک فاجعه مالی "تقریباً اجتنابناپذیر" در دهه آینده رخ خواهد داد.</p> <p style="text-align: justify;">در حوزه سلامت، سرقت یا دستکاری دادههای حساس بیماران نیز میتواند پیامدهای فاجعهباری داشته باشد. فراتر از آسیب مستقیم ناشی از سرقت اطلاعات، آسیب روانی ناشی از این تصور که دولت نمیتواند امنیت شهروندان را تأمین کند، میتواند بسیار مخرب باشد. اگر این تصور فراگیر شود، ایمان به نهادهای ما و دموکراسی را بیشتر تضعیف خواهد کرد.</p> <p style="text-align: justify;"><strong>جریان سیلآسای دروغ</strong></p> <p style="text-align: justify;">کلاهبرداری و جرایم سایبری بهصورت غیرمستقیم تهدیدهایی برای دموکراسی به شمار میآیند، زیرا اعتماد را از بین میبرند و حس آسیبپذیری ما را افزایش میدهند. اما اطلاعات نادرست و دخالت در انتخابات، حملهای مستقیم به اعتماد و دموکراسی محسوب میشوند.</p> <p style="text-align: justify;">نگرانیها درباره محتوای سیاسی تولیدشده توسط هوش مصنوعی تقریباً یک دهه است که در حال افزایش است. در سال ۲۰۱۷، نخستین نمونههای پورنوگرافی دیپفیک بدون رضایت، که در آن چهرههای افراد مشهور روی بدن بازیگران پورن قرار داده میشد، در ردیت ظاهر شد. تقریباً بلافاصله، پژوهشگران هوش مصنوعی و تحلیلگران سیاسی هشدار دادند که دیپفیکها برای انتشار اطلاعات نادرست سیاسی استفاده خواهند شد و محیط اطلاعاتیای را که پیش از این نیز مملو از دروغهای منتشرشده در رسانههای اجتماعی بود، بیشتر مسموم میکنند.</p> <p style="text-align: justify;">همان سال، پژوهشگران دانشگاه واشنگتن با استفاده از چهارده ساعت صوت و ویدئوی رئیسجمهور سابق، باراک اوباما، یک ویدیوی دیپفیک متقاعدکننده ایجاد کردند تا به مردم درباره خطرات پیشرو هشدار دهند. در آن زمان، دیپفیکها به یک تکنیک هوش مصنوعی به نام «شبکه مولد تخاصمی<a href="#_ftn13" name="_ftnref13">[13]</a>» یا GAN وابسته بودند. این تکنیک شامل دو شبکه عصبی میشود؛ یکی برای تولید تصاویر و دیگری برای تشخیص واقعی یا جعلی بودن تصویر. این دو شبکه در مراحل مختلف آموزش با یکدیگر رقابت میکنند و در نهایت تصاویر یا ویدئوهای جعلیای تولید میکنند که تشخیص آنها دشوار است. عیب بزرگ GANها این بود که برای تولید یک دیپفیک متقاعدکننده، به ساعتها ویدئو و صوت از فرد موردنظر نیاز داشتند. اما از آن زمان تاکنون، تکنیکهای جدید هوش مصنوعی بهطور چشمگیری میزان داده، زمان و تخصص انسانی لازم برای ساخت جعلیات متقاعدکننده را کاهش دادهاند. دیگر نیازی به استفاده از GANها نیست.</p> <p style="text-align: justify;">تولیدکنندههای تصویر مانند Midjourney به هرکسی اجازه میدهند تا با یک پیام متنی در عرض چند ثانیه، تصویری دیپفیک از یک فرد مشهور بسازد. تصاویر جعلی ویروسی مانند دونالد ترامپ که ظاهراً در حال درگیری با پلیس در زمان دستگیری است، یا پاپ فرانسیس که یک کت سفید پافر به تن دارد (که هیچیک بخشی از تلاشهای عمدی برای انتشار اطلاعات نادرست نبودند)، به همین شیوه تولید شدند.</p> <p style="text-align: justify;">در همین حال، نرمافزار تولید ویدئو از استارتاپ Runway به افراد این امکان را میدهد که از یک پیام متنی، ویدئوی جعلی ایجاد کنند و همچنین بهسادگی چهره یک نفر را با دیگری در ویدئو جایگزین کنند. استارتاپ دیگری به نام ElevenLabs میتواند تنها با چند ثانیه صوت واقعی از هر فرد، یک نسخه تقلیدی واقعی از صدای او تولید کند.</p> <p style="text-align: justify;">سهولت استفاده از این ابزارها تقریباً بهطور قطعی باعث انفجار محتواهای جعلی خواهد شد. نگرانکنندهتر اینکه برخی سیاستمداران و مشاوران آنها، دیپفیکها را نه بهعنوان یک «ترفند کثیف» پنهانی، بلکه بهعنوان ابزاری آشکار و مشروع برای اقناع سیاسی میبینند.</p> <p style="text-align: justify;">برای مثال، در هند، در انتخابات شهرداری دهلی در سال ۲۰۲۰، یک نامزد ویدیوی دیپفیکی از خود ساخت که در آن به زبانی هندی صحبت میکرد که در واقع آن را بلد نبود، تا به رأیدهندگانی از آن جامعه نزدیکتر شود.</p> <p style="text-align: justify;">در ایالات متحده، حزب جمهوریخواه از ویدیوهای دیپفیک استفاده کرد تا آمریکا را در حالتی آخرالزمانی نشان دهد که ادعا میشد در صورت انتخاب مجدد جو بایدن<a href="#_ftn14" name="_ftnref14">[14]</a> بهعنوان رئیسجمهور، به وقوع خواهد پیوست. این ویدیوها بخشی از یک آگهی تبلیغاتی بودند که بلافاصله پس از اعلام کمپین انتخاباتی بایدن برای دوره دوم منتشر شدند.</p> <p style="text-align: justify;">چتجیپیتی و دیگر مدلهای زبانی بزرگ تولید متن، ساخت اخبار جعلی و وبلاگهایی با ظاهر قابلاعتماد را برای هرکسی آسان کردهاند. در سال ۲۰۱۶، روسیه یک کارزار بیسابقهی اطلاعات نادرست به راه انداخت که هدف آن تأثیرگذاری بر نتیجهی انتخابات ریاستجمهوری آن سال در ایالات متحده بود. این کارزار شامل حسابهای جعلی شبکههای اجتماعی بود که ظاهراً به آمریکاییها تعلق داشتند اما در واقع توسط عوامل مرتبط با روسیه کنترل میشدند. این حسابها از تبلیغات هدفمند برای انتشار داستانهای خبری نادرست با هدف قطبی کردن افکار عمومی استفاده کردند.</p> <p style="text-align: justify;">با این حال، برخی از پستهای این حسابهای جعلی شامل اشتباهات دستوری آشکاری بودند که ممکن بود برخی از خوانندگان را متوجه جعلی بودن این اخبار کند. حالا مدلهایی مانند چتجیپیتی به هرکسی این امکان را میدهند که حتی در زبانهایی که نمیدانند، اخبار جعلی متقاعدکنندهای تولید کنند.</p> <p style="text-align: justify;">تصور کنید که اواخر اکتبر است، چند هفته مانده به یک کمپین رقابتی در انتخابات ریاستجمهوری. یک فایل صوتی در میان دنبالکنندگان شخصیتهای تأثیرگذار راستگرا در رسانههای اجتماعی به سرعت پخش میشود. آنهایی که این فایل را به اشتراک میگذارند میگویند که این بخشهایی از یک جلسه خصوصی بین رئیسجمهور دموکرات فعلی و یک تاجر میلیاردر است. در این فایل صوتی، رئیسجمهور به شریک تجاری خود در جمهوری چک قول میدهد تا محمولهای از تسلیحات آمریکایی را تأمین کند که او بتواند بعداً به دولت غنا بفروشد. در ازای این کار، رئیسجمهور یک رشوه صریح به شکل کمک مالی بزرگ به کمپین انتخاباتی خود طلب میکند.</p> <p style="text-align: justify;">هرچند منشأ این فایل صوتی مشکوک است، اما رسانههای راستگرا به سرعت آن را منتشر میکنند. خبرنگاران تأیید میکنند که رئیسجمهور واقعاً جلسهای با این تاجر داشته و تاجر کمک مالی قابلتوجهی به کمپین رئیسجمهور کرده است. اما صحت فایل صوتی قابل تأیید نیست. سخنگویان رئیسجمهور و تاجر هر دو اصالت فایل را رد میکنند. اما این انکارها مانع از آن نمیشود که نامزد جمهوریخواه «رسوایی رشوهخواری» را محکوم کند و ادعا کند که «رسانههای جریان اصلی از پوشش این ماجرا امتناع میکنند.» جمهوریخواهان کنگره با درخواست تحقیق در مورد «غناگیت<a href="#_ftn15" name="_ftnref15">[15]</a>» به این موضوع دامن میزنند. حالا رسانههای خبری غیرحزبی احساس میکنند مجبورند این داستان را پوشش دهند، حتی اگر قادر به تأیید فایل صوتی نباشند.</p> <p style="text-align: justify;">نظرسنجیهای رئیسجمهور در میان رأیدهندگان مستقل و مردد در ایالتهای حساس کاهش پیدا میکند. در همین حال، «رسوایی» تصور رأیدهندگان راستگرا درباره رئیسجمهور بهعنوان فردی فاسد و غیراخلاقی را تقویت کرده و آنها را به شرکت در انتخابات ترغیب میکند. رئیسجمهور رأی عمومی را میبرد، اما به دلیل شکستهای جزئی در ایالتهای کلیدی، در کالج انتخاباتی بازنده میشود.</p> <p style="text-align: justify;">با توجه به وضعیت کنونی فناوری هوش مصنوعی و چشمانداز سیاسی، این سناریو کاملاً محتمل است. ظهور یک ویدیوی دیپفیک یا فایل صوتی در لحظهای کلیدی در یک انتخابات نزدیک میتواند تعیینکننده باشد. شناسایی دیپفیکهای صوتی کاری دشوار است، بهویژه اگر ادعا شود که فایل ضبطشده از یک مکالمهای خصوصی هستند.</p> <p style="text-align: justify;">برای مثال، در آستانه انتخابات شهرداری شیکاگو در سال ۲۰۲۳، یک حساب کاربری در شبکه اجتماعی ایکس (که پیشتر توییتر بود) به نام Chicago Lakefront News تصویری از یکی از نامزدها، پل والاس<a href="#_ftn16" name="_ftnref16">[16]</a>، همراه با یک فایل صوتی منتشر کرد که در آن اظهارات تحریکآمیز و کمرنگشمردن سوءرفتار پلیس شنیده میشد. این فایل صوتی بهسرعت بهعنوان جعلی افشا شد و در نهایت نقش قابلتوجهی در انتخابات ایفا نکرد. اما هزاران نفر همچنان این کلیپ جعلی را شنیدند و به اشتراک گذاشتند.</p> <p style="text-align: justify;">در اسلواکی، یک فایل صوتی دیپفیک احتمالاً نتیجه انتخابات ملی سال ۲۰۲۳ را تغییر داد، که این اتفاق برای اولین بار در یک دموکراسی غربی رخ داد.</p> <p style="text-align: justify;">نتایج انتخابات ریاستجمهوری ایالات متحده بر پایه تعداد کمی از رأیدهندگان در چند ایالت حساس استوار است. تعداد زیادی از افراد لازم نیست رأی خود را تغییر دهند تا نتیجه انتخابات ریاستجمهوری تغییر کند.</p> <p style="text-align: justify;">مطالعات درباره اطلاعات نادرست نشان میدهند که مردم بیشتر زمانی تمایل به باور آن دارند که با باورها و تعصبات موجودشان هماهنگ باشد. این بدان معناست که کارزارهای تبلیغاتی که با هدف افزایش مشارکت رأیدهندگان پایگاه یک نامزد طراحی میشوند، یا قانعکردن رأیدهندگان مردد به عدم شرکت در انتخابات، مؤثرتر از تلاشهایی است که بخواهد برداشت رأیدهندگان را تغییر دهد.</p> <p style="text-align: justify;">سهولت تولید اطلاعات نادرست با هوش مصنوعی، آن را بهویژه برای برخی از استراتژیهای تبلیغاتی مفید میکند. روسیه از استراتژیای پیروی میکند که کارشناسان اندیشکده RAND Corporation آن را «سیل دروغها» مینامند. هدف این است که مردم را با سیلی از دروغها و نیمهحقایق غرق کنند.</p> <p style="text-align: justify;">مطالعات نشان دادهاند که مردم احتمال بیشتری دارد اطلاعاتی که بیشتر با آن روبهرو میشوند، حتی اگر نادرست باشد، آن را باور کنند. این سونامی اطلاعات نادرست همچنین برای غلبه بر تلاشهای راستیآزمایی طراحی شده است. در نهایت، هدف اصلی ممکن است اقناع نباشد؛ هدف واقعی ایجاد سردرگمی و تخریب اعتماد به نهادهای کلیدی است.</p> <p style="text-align: justify;">وقتی مردم نمیدانند به چه چیزی یا چه کسی اعتماد کنند، بیشتر تمایل دارند به گروههای نزدیک مانند دوستان و خانواده پناه ببرند، که انسجام اجتماعی میان جوامع را تضعیف میکند. شیوع اطلاعات نادرست دیپفیک ممکن است همچنین پدیدهای به نام «مزیت دروغگو» (liar’s dividend) را افزایش دهد؛ وضعیتی که در آن فراوانی اطلاعات نادرست باعث میشود سیاستمداران به راحتی اطلاعات واقعی مخرب را بهعنوان «اخبار جعلی» انکار کنند.</p> <p style="text-align: justify;"><strong>واترمارکهای دیجیتال</strong></p> <p style="text-align: justify;">در حال حاضر، ما ابزارهای کمی برای مقابله با این سیل گمراهی و فریب در اختیار داریم. شرکتهای فناوری که از هوش مصنوعی مولد استفاده میکنند، داوطلبانه تعهد دادهاند که "واترمارکهای دیجیتال" را بر روی تصاویر ساختهشده توسط هوش مصنوعی اعمال کنند، بهطوری که تشخیص برخی از دیپفیکها از نظر فنی آسان شود. برای مثال، سامسونگ شروع به استفاده از واترمارک دیجیتال قابل مشاهده بر روی هر تصویری کرده که با ابزارهای هوش مصنوعی موجود در نسل جدید گوشیهای گلکسی این شرکت ساخته شده است. این شرکت همچنین اطلاعاتی به متادیتای همراه هر فایل تصویری اضافه میکند که نشان میدهد از هوش مصنوعی برای ویرایش آن استفاده شده است. اما در حال حاضر، ایالات متحده قانوناً ملزم نکرده است که تصاویر ساختهشده با هوش مصنوعی دارای واترمارک باشند. قانون هوش مصنوعی اتحادیه اروپا شفافیت در مورد محتوای تولیدشده با هوش مصنوعی را الزامی کرده که احتمالاً به اعمال واترمارک منجر خواهد شد، در حالی که چین قبلاً این شناسهها را در مقررات هوش مصنوعی خود اجباری کرده است.</p> <p style="text-align: justify;">در هر صورت، واترمارکها راهحلی بینقص نیستند. آنها فقط از استفاده از نرمافزارهای هوش مصنوعی تجاری برای ساخت دیپفیکها محافظت میکنند. بازیگران مخرب، بهویژه دولتهای ثروتمند، میتوانند مدلهای هوش مصنوعی خود را بدون واترمارک بسازند یا از نرمافزارهای متنباز هوش مصنوعی برای حذف محافظتهای واترمارک استفاده کنند. تحقیقات نشان دادهاند که سیستمهای واترمارک برای متن و تصاویر تولیدشده توسط هوش مصنوعی نیز میتوانند با دستکاریهای خاص یا آموزش مجدد مدل از بین بروند. در برخی موارد، حتی سادهتر از این است؛ تنها چند روز پس از معرفی قابلیت واترمارک جدید سامسونگ، مشخص شد که افراد میتوانند از همان ابزارهای ویرایش هوش مصنوعی گوشیهای هوشمند برای حذف واترمارک استفاده کنند (هرچند متادیتا همچنان نشان میدهد که از هوش مصنوعی استفاده شده است).</p> <p style="text-align: justify;">شرکتهایی مانند ادوبی، مایکروسافت و ...، از جمله شرکت دوربینسازی لایکا، رویکردی معکوس را در پیش گرفتهاند؛ افزودن "اعتبار محتوایی" (Content Credentials) به متادیتای تمام تصاویر دیجیتال برای تأیید اصالت آنها و شناسایی خودکار انواع خاصی از دستکاریهای دیجیتال. اما کاربران میتوانند از استفاده از این اعتبارها خودداری کنند و در اکثر موارد این ویژگیها به طور پیشفرض اعمال نمیشوند. ممکن است سالها طول بکشد تا این استاندارد در سطح جهانی گسترش یابد و باز هم بازیگران مخرب ممکن است راهی برای جعل این اعتبارها پیدا کنند.</p> <p style="text-align: justify;">در همین حال، دولت بایدن به وزارت بازرگانی دستور داده است تا دستورالعملهایی در مورد واترمارکهای دیجیتال تهیه کند که برای تأیید صحت تمام ارتباطات دولتی اعمال شود. اما این سیستمهای اعتبارسنجی محتوا مسئله تمام تصاویر دیجیتالی قانونی که پیش از این بدون چنین اعتباراتی تولید شدهاند را حل نمیکنند.</p> <p style="text-align: justify;">واترمارکها به نظر ضروری میرسند، اما برای مقابله با بحران فزاینده بیاعتمادی کافی نیستند. جرمانگاری تولید و انتشار عمدی اطلاعات نادرست میتواند مفید باشد. این کار حداقل میتواند از گسترش دروغهای تولیدشده توسط هوش مصنوعی برای سود تبلیغاتی توسط شرکتهای داخلی جلوگیری کند، اگرچه تأثیری بر کسبوکارهای خارجی مشکوک یا دولتهای خصمانه نخواهد داشت.</p> <p style="text-align: justify;">فرانسه در سال ۲۰۱۸ قانونی تصویب کرد که به مقامات اختیارات گستردهای برای حذف محتوای نادرست از شبکههای اجتماعی یا مسدود کردن سایتهایی که این محتوا را منتشر میکنند، میدهد. همچنین این قانون شفافیت بیشتری در مورد تأمین مالی محتوای تبلیغاتی در سه ماه پیش از انتخابات الزامی کرده است. قانون خدمات دیجیتال اتحادیه اروپا نیز پلتفرمهای شبکههای اجتماعی را ملزم کرده است که فرآیندهای خود را برای مقابله با اطلاعات نادرست، تبلیغات تروریستی و سخنان نفرتانگیز تقویت کنند. اما این قانون همچنین تأکید دارد که پلتفرمهای شبکههای اجتماعی باید این محدودیتها را با حقوق آزادی بیان به دقت متعادل کنند.</p> <p style="text-align: justify;">در ایالات متحده، هر گونه تلاشی برای جرمانگاری تولید اطلاعات نادرست احتمالاً با متمم اول قانون اساسی تضاد خواهد داشت. آمریکا باید از الگوی اروپا پیروی کرده و برخی الزامات را برای شرکتهای شبکههای اجتماعی در کنترل انتشار اطلاعات نادرست اعمال کند. اصلاح بخش ۲۳۰ قانون نزاکت ارتباطات (Communications Decency Act)، که قانون تاریخی سال ۱۹۹۶ و اغلب به عنوان "سازنده اینترنت" شناخته میشود، میتواند به مهار جریان اطلاعات غلط کمک کند. ایالات متحده همچنین باید کمپینهای سیاسی را از استفاده از محتوای تولیدشده توسط هوش مصنوعی منع کند.</p> <p style="text-align: justify;"><strong>کود برای کمپینهای نمایشی (</strong><strong>Astroturf</strong><strong>)</strong></p> <p style="text-align: justify;">دیپفیکها بیشترین توجه رسانهها را به خود جلب میکنند، اما هوش مصنوعی تهدیدهای پنهانتر و خطرناکتری نیز برای دموکراسی ما ایجاد میکند. گروههای ذینفع میتوانند از هوش مصنوعی برای تقویت کمپینهای نمایشی (Astroturf) استفاده کنند. (جایی که یک لابی شرکتی ظاهر کاذبی از حمایت عمومی از یک سیاست خاص ایجاد میکند؛ اغلب با استفاده از سازمانهای پوششی که طراحان واقعی را مخفی نگه میدارند.) گروههای لابی پیشتر از اتوماسیون برای راهاندازی کمپینهای نمایشی بهره بردهاند. برای مثال، در سال ۲۰۱۷، هنگامی که کمیسیون ارتباطات فدرال<a href="#_ftn17" name="_ftnref17">[17]</a> (FCC) تغییراتی را در قوانین "بیطرفی شبکه<a href="#_ftn18" name="_ftnref18">[18]</a>" در نظر گرفته بود؛ گروههایی که از منافع شرکتی حمایت میکردند از رباتها برای پر کردن پورتال نظرات الکترونیکی کمیسیون با بیش از ۸ میلیون نظر موافق با لغو قوانین استفاده کردند. این تلاش شکست خورد زیرا ۹۰ درصد نظرات یکسان بودند و تشخیص ماهیت ساختگی کمپین برای کمیسیون آسان بود. اما امروزه مدلهای زبانی بزرگ میتوانند انبوهی از نامهها و نظرات عمومی قانعکننده تولید کنند که هرکدام با عبارتبندیهای کمی متفاوت، به نظر میرسد توسط افراد واقعی نوشته شدهاند. در حال حاضر، مکاتبات تولیدشده توسط هوش مصنوعی قابل شناسایی نیست.</p> <p style="text-align: justify;">هوش مصنوعی همچنین میتواند تلاشها برای استفاده از رسانههای اجتماعی برای سنجش احساسات عمومی را تحتالشعاع قرار دهد. در تئوری، استفاده از هوش مصنوعی برای دستهبندی و خلاصهسازی خودکار پستهای رسانههای اجتماعی میتواند روشی نوین برای مسئولان دولتی یا رسانهها فراهم کند تا "نبض عمومی" را بگیرند، بدون اینکه به نظرسنجیهایی که به دلایل مختلف کمتر قابلاعتماد شدهاند، وابسته باشند. خلاصهسازی پستهای رسانههای اجتماعی همچنین میتواند اطلاعات ظریفتری نسبت به نظرسنجیها ارائه دهد، جایی که شرکتکنندگان معمولاً به چند درجه محدود از موافقت یا مخالفت با یک عبارت دسترسی دارند.</p> <p style="text-align: justify;">این چشمانداز نوآم اسلونیم<a href="#_ftn19" name="_ftnref19">[19]</a>، پژوهشگر شرکت IBM بود که سیستمی به نام Speech by Crowd را طراحی کرد. این سیستم که در اواخر سال ۲۰۱۸ به نمایش گذاشته شد، قادر بود هزاران نظر انسانی نوشتهشده را تحلیل و خلاصه کند و تشخیص دهد کدام نظرات موافق یک پیشنهاد هستند و کدام مخالف آن. اسلونیم پیشنهاد کرد که در آینده، دولتها میتوانند از Speech by Crowd یا نسخههای پیشرفتهتر آن برای درک بهتر افکار عمومی استفاده کنند. اما چنین سیستمی فقط زمانی کار میکند که دولت بتواند بهطور منطقی از صحت نظرات تحلیلشده اطمینان حاصل کند. برای مقابله با این مسئله، دولتها باید تدابیر دفاعی موجود در برابر رباتها را تقویت کنند. (مانند سیستمهای CAPTCHA یا احراز هویت دومرحلهای) در وبسایتهایی که نظرات عمومی را جمعآوری میکنند؛ هرچند هوش مصنوعی پیشرفتهتر ممکن است سرانجام این دفاعها را بشکند، اما دستکم روند کار برای کمپینهای نمایشی سختتر خواهد شد.</p> <p style="text-align: justify;">شرکتهای رسانههای اجتماعی نیز باید ملزم شوند که تلاشهای خود را برای مقابله با رباتها و حسابهای جعلی دوچندان کنند. با سیاستهای درست، هوش مصنوعی میتواند ابزاری برای تقویت دموکراسی و افزایش اعتماد باشد. اما در وضعیت کنونی، این فناوری احتمالاً تأثیر معکوس خواهد داشت، اطلاعات نادرست را بیشتر گسترش داده و حس جامعهپذیری و فرآیندهای دموکراتیک ما را بیشتر تضعیف میکند.</p> <p style="text-align: justify;">این شکاف میان نخبگان ثروتمند و سایر اعضای جامعه را عمیقتر کرده و انتظارات از عدالت و فرصت برابر که پایههای حمایت عمومی از حکومت دموکراتیک هستند را تضعیف خواهد کرد. ما باید خود را برای این چالش آماده کنیم و هر گامی که میتوانیم برای هدایت توسعه هوش مصنوعی در مسیری روشنتر و بالندهتر برداریم.</p> <p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> Katy Washington</p> <p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> Colorado Boulder University</p> <p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> Jenny Vipperman</p> <p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> de facto global standard</p> <p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> Federal Trade Commission</p> <p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> Federal Reserve</p> <p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Securities and Exchange Commission</p> <p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> Dark Web</p> <p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> Red team</p> <p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> Evan Reiser</p> <p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> Maya Horowitz</p> <p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> Gary Gensler</p> <p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> Generative Adversarial Network</p> <p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> Joe Biden</p> <p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> Ghanagate</p> <p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> Paul Vallas</p> <p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> Federal Communications Commission</p> <p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> Net neutrality –ارائهدهندگان خدمات اینترنتی را ملزم میکند تمام اطلاعات منتقلشده از طریق کابلهای فیبر نوری را به طور مساوی پردازش کنند.</p> <p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> Noam Slonim</p>