نشان تجارت - هدی کاشانیان: هوش مصنوعی (AI) به دلیل تأثیرات گستردهای که میتواند بر جامعه، اقتصاد، امنیت و حریم خصوصی داشته باشد، نگرانیهای زیادی را برای بشر ایجاد کرده است. کارشناسان میگویند ظهور هوش مصنوعی باعث بهبود زندگی بیشتر مردم در دههی آینده میشود، اما بسیاری نگران تأثیر پیشرفتهای هوش مصنوعی بر مفهوم انسان بودن، بهرهوری و اختیار انسان هستند.
بسیاری از افراد مشهور و محققان در مورد خطرات بالقوه هوش مصنوعی هشدارهای زیادی دادهاند. البته چیزی که در حال حاضر از کاربردهای AI مشاهده میکنید، تماماً بدون خطر و مفید هستند، اما با پیشرفت لحظه به لحظه این سیستمها، نگرانیها بسیار افزایش یافته است. این نگرانیها حتی شامل از بین رفتن نوع بشر هم بوده است. محققان در مورد اینکه کدام یک از خطرات AI میتواند از بالقوه به بالفعل تبدیل شود، اختلافات زیادی دارند، اما تقریباً تمامی افراد بر امکان اتفاقات ناخوشایند در آینده هشدار دادهاند. در اینجا خطرات اصلی که بیشتر دانشمندان آنها را مدنظر قراردادهاند، بررسی میکنیم:
۱. از دست رفتن شغلها و افزایش بیکاری
شرکت OpenAI تخمین میزند ۸۰ درصد از کارگران در آمریکا شاهد خواهند بود شغل آنها تحت تأثیر هوش مصنوعی قرار میگیرد. گزارش شرکت خدمات مالی و بانکداری گلدمن ساکس بیانگر آن است که این فناوری میتواند ۳۰۰ میلیون شغل تمام وقت را در سراسر جهان مورد تهدید قرار دهد. به گفته هینتون، زمانی که «ابزارهای هوشمند میتوانند از ما پیشی بگیرند» بقای بشریت در خطر است.
هینتون میگوید: این چیزها با خواندن همه رمانهایی که تا به حال نگاشته شده و هر آنچه «نیکولو ماکیاولی» مورخ و نمایشنامهنویس ایتالیایی تا به حال نوشته است، از ما میآموزد چگونه انسانها را کنترل کند. حتی اگر آنها نتوانند مستقیماً اهرمها را بکشند، مطمئناً میتوانند ما را وادار به کشیدن اهرم کنند.
۲. تهدید برای حریم خصوصی و امنیت اطلاعات
هوش مصنوعی برای انجام بسیاری از وظایفش در سطح گسترده نیاز به داده و اطلاعات دارد. این دادهها، میتواند شامل اطلاعات شخصی افراد، موقعیت مکانی، اطلاعات پزشکی، تعاملات روزمره آدمها با یکدیگر و خیلی موارد دیگر باشد. جمعآوری این اطلاعات توسط شرکتهای فناوری، سازمانهای دولتی و پلتفرمهای آنلاین به نقض حریم خصوصی افراد منجر میشود و خیلی از ما نمیدانیم که چقدر از اطلاعات شخصی ما در اختیار این نهادهاست و چه سوءاستفادههایی ممکن است از این اطلاعات بشود، مثل ماجرایی که سر انتشار و فروش اطلاعات شخصی افراد توسط فیسبوک رخ داد. هوش مصنوعی نقش مهمی در تقویت فناوریهای نظارتی ایفا میکند و نگرانیهای زیادی را در مورد تجاوز به حریم خصوصی و احتمال سوء استفاده از اطلاعات شخصی افراد یا نهادها را ایجاد کرده است.
۳. افزایش تهدیدهای امنیتی و سایبری
هکرها میتوانند از هوش مصنوعی در حملات سایبری سوءاستفاده کنند. در این روشها، از ابزارهای هوش مصنوعی برای شبیهسازی صدا، تولید هویتهای جعلی و ساخت ایمیلهای فیشینگ استفاده میشود. تمام این موارد به قصد کلاهبرداری، هک، سرقت هویت فرد یا بهخطرانداختن حریم خصوصی و امنیت آنها انجام میشود.
۴. مشکلات اخلاقی و عدمکنترل بر هوش مصنوعی
یکی از دغدغههای مهم محققان و دانشمندان هوش مصنوعی در مورد القای ارزشهای اخلاقی به این سیستمها است. در موارد بسیاری هوش مصنوعی در تصمیمگیریها در آینده دخالت خواهد کرد و باید در این تصمیمگیریها ارزشهای اخلاقی در نظر گرفته شود. یکی از مشکلات اساسی در این مورد این است که تعریف دقیقی از این ارزشها بین تمامی انسانها برقرار نیست. این مورد موجب نتایج مختلف در تصمیمگیری و ایجاد مشکلات اخلاقی خواهد شد.
۵. هوش مصنوعی و تقویت تعصب و تبعیض
بعضی تصور میکنند که هوش مصنوعی یک سیستم کاملاً ماشینی، کامپیوتری و بیطرف است. این مورد اصلاً درست نیست و سیستمهای مبتنی بر AI با توجه به آموزشهایی که میبینند و افرادی که آنها را آموزش میدهند میتوانند تفکرات و تعصبات مختلف داشته باشند. با توجه به اینکه توسعهدهندگان سیستمها افراد مختلفی هستند و این افراد تعصبهای مختلفی دارند، میتوان تصور کرد که هوش مصنوعی ایجاد شده توسط این افراد میتواند موجب تقویت تعصب و تبعیض در جامعه شود.
۶. ایجاد وابستگی به هوش مصنوعی
با توجه به کاراییهای AI ممکن است انسانها، بسیار به این سیستمها وابسته شوند. این وابستگی میتواند باعث از دست رفتن خلاقیت، تفکر انتقادی و درک و شهود انسانی شود. شاید بتوان گفت این یکی از محتملترین و خطرناکترین عواقب و خطرات هوش مصنوعی است که حتی میتوان در حال حاضر گوشههایی از آن را در بعضی بخشها مشاهده کرد. هوش مصنوعی قادر است وظایف سخت و پیچیده زیادی را بر عهده بگیرد، از رانندگی گرفته تا تشخیص سرطان، اما افراد ممکن است بیش از حد به این سیستمها وابسته شوند که منجر به از دست دادن مهارتها و تواناییهای تفکر انتقادی آنها میشود. بهعنوان مثال، با رایجتر شدن ابزارهای تشخیص پزشکی مبتنی بر هوش مصنوعی، ممکن است پزشکان به شدت به این سیستمها تکیه کنند و به طور بالقوه قدرت و حس تشخیصی و تجربه عملی خود را در طول زمان از دست بدهند.
۷. چگونگی توقف هوش مصنوعی
دولتها توجه زیادی به ظهور هوش مصنوعی دارند. مدتی پیش، کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.
قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترلهای جدید برای فناوریهایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.
آنچه مشخص نیست این است که چگونه کسی میتواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد. هینتون پیشنهاد کرد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بینالمللی علیه هوش مصنوعی تسلیحاتی باشد.
۸. آسیبهای زیستمحیطی هوش مصنوعی
آموزش مدلهای هوش مصنوعی و انجام محاسبات پیچیده توسط آنها به انرژی بسیار زیادی نیاز دارد و میزان انتشار کربن این فرایند بسیار زیاد است، بنابراین اجرای مدلهای پیچیده به افزایش انتشار کربن کمک میکند و میتواند به محیطزیست آسیب برساند.
مصرف آب، دیگر نگرانی توسعه هوش مصنوعی است. بسیاری از سیستمهای هوش مصنوعی روی سرورهایی اجرا میشوند که گرمای زیادی تولید میکنند و خنکسازی آنها به آب زیادی نیاز دارد. طبق پژوهشی، آموزش مدلهای GPT-۳ در مراکز داده مایکروسافت به ۵ میلیون و ۴۰۰ هزار لیتر آب نیاز دارد و برای پردازش ۱۰ تا ۵۰ درخواست تقریباً ۵۰۰ میلیلیتر آب مصرف میشود.
۹. توسعه سلاحهای خودکار مبتنی بر هوش مصنوعی
پیشرفتهای حوزه تکنولوژی اغلب وارد صنعت جنگ نیز میشود. این برای هوش مصنوعی نیز صدق میکند. توسعه سلاحهای خودمختاری که از فناوری هوش مصنوعی پشتیبانی میکنند، یکی از خطرات این فناوری است و کشورهای سراسر جهان برای پیشتازی در آن رقابت میکنند. شاید توسعه چنین سلاحهایی از مدتها قبل در داستانهای علمی - تخیلی پیشبینی شده بود، اما زمانی همهچیز خطرناک به نظر میرسد که در آینده آنها به دست افراد اشتباه بیفتند. با پیشرفت دنیای فناوری، هکرها نیز به انواع مختلفی از حملات سایبری تسلط پیدا کردهاند که این امر سیستمهای هوش مصنوعی آینده را نیز بهطور بالقوه آسیبپذیر میکند.
۱۰. بحرانهای مالی با استفاده از الگوریتمهای هوش مصنوعی
بسیاری از کسانی که در بازارهای مالی فعالیت دارند، از هوش مصنوعی برای پیشبرد کار خود استفاده میکنند. همچنین تحلیلگران اقتصادی و مالی از ابزارهایی مبتنی بر هوش مصنوعی استفاده میکنند. با توجه به این مورد احتمال اینکه بحرانهای مالی آینده را هوش مصنوعی ایجاد کند، بسیار زیاد است. علاوه بر این افرادی که پول و داده بیشتری در اختیار دارند، احتمالاً میتوانند روندهای اقتصادی را بهتر تشخیص دهند. این مورد نابرابری اقتصادی را افزایش خواهد داد و مشکلات اختلاف طبقاتی را بیشتر و بیشتر خواهد کرد.