کد خبر: ۶۱۷۷۰
۰۶:۴۴ -۰۹ فروردين ۱۴۰۴
در نشان تجارت بخوانید

چرا هوش مصنوعی باعث نگرانی بشر شده است؟

هوش مصنوعی پتانسیل فوق‌العاده‌ای برای پیشرفت بشر دارد، اما اگر بدون نظارت و کنترل توسعه یابد، می‌تواند تهدید‌های جدی برای جامعه، اقتصاد و حتی بقای انسان ایجاد کند. نگرانی‌ها در مورد هوش مصنوعی واقعی هستند، اما با استفاده درست و مدیریت‌شده، می‌توان از مزایای آن بهره برد و خطراتش را به حداقل رساند.

هوش مصنوعی و نگرانی بشر

نشان تجارت - هدی کاشانیان: هوش مصنوعی (AI) به دلیل تأثیرات گسترده‌ای که می‌تواند بر جامعه، اقتصاد، امنیت و حریم خصوصی داشته باشد، نگرانی‌های زیادی را برای بشر ایجاد کرده است. کارشناسان می‌گویند ظهور هوش مصنوعی باعث بهبود زندگی بیشتر مردم در دهه‌ی آینده می‌شود، اما بسیاری نگران تأثیر پیشرفت‌های هوش مصنوعی بر مفهوم انسان بودن، بهره‌وری و اختیار انسان هستند.

آیا هوش مصنوعی می‌تواند خطرناک باشد؟

بسیاری از افراد مشهور و محققان در مورد خطرات بالقوه هوش مصنوعی هشدار‌های زیادی داده‌اند. البته چیزی که در حال حاضر از کاربرد‌های AI مشاهده می‌کنید، تماماً بدون خطر و مفید هستند، اما با پیشرفت لحظه به لحظه این سیستم‌ها، نگرانی‌ها بسیار افزایش یافته است. این نگرانی‌ها حتی شامل از بین رفتن نوع بشر هم بوده است. محققان در مورد اینکه کدام یک از خطرات AI می‌تواند از بالقوه به بالفعل تبدیل شود، اختلافات زیادی دارند، اما تقریباً تمامی افراد بر امکان اتفاقات ناخوشایند در آینده هشدار داده‌اند. در اینجا خطرات اصلی که بیشتر دانشمندان آن‌ها را مدنظر قرارداده‌اند، بررسی می‌کنیم:

۱. از دست رفتن شغل‌ها و افزایش بیکاری

شرکت OpenAI تخمین می‌زند ۸۰ درصد از کارگران در آمریکا شاهد خواهند بود شغل آن‌ها تحت تأثیر هوش مصنوعی قرار می‌گیرد. گزارش شرکت خدمات مالی و بانکداری گلدمن ساکس بیانگر آن است که این فناوری می‌تواند ۳۰۰ میلیون شغل تمام وقت را در سراسر جهان مورد تهدید قرار دهد. به گفته هینتون، زمانی که «ابزار‌های هوشمند می‌توانند از ما پیشی بگیرند» بقای بشریت در خطر است.

هینتون می‌گوید: این چیز‌ها با خواندن همه رمان‌هایی که تا به حال نگاشته شده و هر آنچه «نیکولو ماکیاولی» مورخ و نمایشنامه‌نویس ایتالیایی تا به حال نوشته است، از ما می‌آموزد چگونه انسان‌ها را کنترل کند. حتی اگر آن‌ها نتوانند مستقیماً اهرم‌ها را بکشند، مطمئناً می‌توانند ما را وادار به کشیدن اهرم کنند.

۲. تهدید برای حریم خصوصی و امنیت اطلاعات

هوش مصنوعی برای انجام بسیاری از وظایفش در سطح گسترده نیاز به داده و اطلاعات دارد. این داده‌ها، می‌تواند شامل اطلاعات شخصی افراد، موقعیت مکانی، اطلاعات پزشکی، تعاملات روزمره آدم‌ها با یکدیگر و خیلی موارد دیگر باشد. جمع‌آوری این اطلاعات توسط شرکت‌های فناوری، سازمان‌های دولتی و پلتفرم‌های آنلاین به نقض حریم خصوصی افراد منجر می‌شود و خیلی از ما نمی‌دانیم که چقدر از اطلاعات شخصی ما در اختیار این نهادهاست و چه سوءاستفاده‌هایی ممکن است از این اطلاعات بشود، مثل ماجرایی که سر انتشار و فروش اطلاعات شخصی افراد توسط فیسبوک رخ داد. هوش مصنوعی نقش مهمی در تقویت فناوری‌های نظارتی ایفا می‌کند و نگرانی‌های زیادی را در مورد تجاوز به حریم خصوصی و احتمال سوء استفاده از اطلاعات شخصی افراد یا نهاد‌ها را ایجاد کرده است.

۳. افزایش تهدید‌های امنیتی و سایبری

هکر‌ها می‌توانند از هوش مصنوعی در حملات سایبری سوءاستفاده کنند. در این روش‌ها، از ابزار‌های هوش مصنوعی برای شبیه‌سازی صدا، تولید هویت‌های جعلی و ساخت ایمیل‌های فیشینگ استفاده می‌شود. تمام این موارد به قصد کلاهبرداری، هک، سرقت هویت فرد یا به‌خطرانداختن حریم خصوصی و امنیت آن‌ها انجام می‌شود.

عدم کنترل بر هوش مصنوعی

۴. مشکلات اخلاقی و عدم‌کنترل بر هوش مصنوعی

یکی از دغدغه‌های مهم محققان و دانشمندان هوش مصنوعی در مورد القای ارزش‌های اخلاقی به این سیستم‌ها است. در موارد بسیاری هوش مصنوعی در تصمیم‌گیری‌ها در آینده دخالت خواهد کرد و باید در این تصمیم‌گیری‌ها ارزش‌های اخلاقی در نظر گرفته شود. یکی از مشکلات اساسی در این مورد این است که تعریف دقیقی از این ارزش‌ها بین تمامی انسان‌ها برقرار نیست. این مورد موجب نتایج مختلف در تصمیم‌گیری و ایجاد مشکلات اخلاقی خواهد شد.

۵. هوش مصنوعی و تقویت تعصب و تبعیض

بعضی تصور می‌کنند که هوش مصنوعی یک سیستم کاملاً ماشینی، کامپیوتری و بی‌طرف است. این مورد اصلاً درست نیست و سیستم‌های مبتنی بر AI با توجه به آموزش‌هایی که می‌بینند و افرادی که آن‌ها را آموزش می‌دهند می‌توانند تفکرات و تعصبات مختلف داشته باشند. با توجه به اینکه توسعه‌دهندگان سیستم‌ها افراد مختلفی هستند و این افراد تعصب‌های مختلفی دارند، می‌توان تصور کرد که هوش مصنوعی ایجاد شده توسط این افراد می‌تواند موجب تقویت تعصب و تبعیض در جامعه شود.

۶. ایجاد وابستگی به هوش مصنوعی

با توجه به کارایی‌های AI ممکن است انسان‌ها، بسیار به این سیستم‌ها وابسته شوند. این وابستگی می‌تواند باعث از دست رفتن خلاقیت، تفکر انتقادی و درک و شهود انسانی شود. شاید بتوان گفت این یکی از محتمل‌ترین و خطرناک‌ترین عواقب و خطرات هوش مصنوعی است که حتی می‌توان در حال حاضر گوشه‌هایی از آن را در بعضی بخش‌ها مشاهده کرد. هوش مصنوعی قادر است وظایف سخت و پیچیده زیادی را بر عهده بگیرد، از رانندگی گرفته تا تشخیص سرطان، اما افراد ممکن است بیش از حد به این سیستم‌ها وابسته شوند که منجر به از دست دادن مهارت‌ها و توانایی‌های تفکر انتقادی آن‌ها می‌شود. به‌عنوان مثال، با رایج‌تر شدن ابزار‌های تشخیص پزشکی مبتنی بر هوش مصنوعی، ممکن است پزشکان به شدت به این سیستم‌ها تکیه کنند و به طور بالقوه قدرت و حس تشخیصی و تجربه عملی خود را در طول زمان از دست بدهند.

۷. چگونگی توقف هوش مصنوعی

دولت‌ها توجه زیادی به ظهور هوش مصنوعی دارند. مدتی پیش، کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.

قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترل‌های جدید برای فناوری‌هایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.

آنچه مشخص نیست این است که چگونه کسی می‌تواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد. هینتون پیشنهاد کرد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بین‌المللی علیه هوش مصنوعی تسلیحاتی باشد.

۸. آسیب‌های زیست‌محیطی هوش مصنوعی

آموزش مدل‌های هوش مصنوعی و انجام محاسبات پیچیده توسط آن‌ها به انرژی بسیار زیادی نیاز دارد و میزان انتشار کربن این فرایند بسیار زیاد است، بنابراین اجرای مدل‌های پیچیده به افزایش انتشار کربن کمک می‌کند و می‌تواند به محیط‌زیست آسیب برساند.

مصرف آب، دیگر نگرانی توسعه هوش مصنوعی است. بسیاری از سیستم‌های هوش مصنوعی روی سرور‌هایی اجرا می‌شوند که گرمای زیادی تولید می‌کنند و خنک‌سازی آن‌ها به آب زیادی نیاز دارد. طبق پژوهشی، آموزش مدل‌های GPT-۳ در مراکز داده مایکروسافت به ۵ میلیون و ۴۰۰ هزار لیتر آب نیاز دارد و برای پردازش ۱۰ تا ۵۰ درخواست تقریباً ۵۰۰ میلی‌لیتر آب مصرف می‌شود.

۹. توسعه سلاح‌های خودکار مبتنی بر هوش مصنوعی

پیشرفت‌های حوزه تکنولوژی اغلب وارد صنعت جنگ نیز می‌شود. این برای هوش مصنوعی نیز صدق می‌کند. توسعه سلاح‌های خودمختاری که از فناوری هوش مصنوعی پشتیبانی می‌کنند، یکی از خطرات این فناوری است و کشور‌های سراسر جهان برای پیشتازی در آن رقابت می‌کنند. شاید توسعه چنین سلاح‌هایی از مدت‌ها قبل در داستان‌های علمی‌ - تخیلی پیش‌بینی شده بود، اما زمانی همه‌چیز خطرناک به نظر می‌رسد که در آینده آن‌ها به دست افراد اشتباه بیفتند. با پیشرفت دنیای فناوری، هکر‌ها نیز به انواع مختلفی از حملات سایبری تسلط پیدا کرده‌اند که این امر سیستم‌های هوش مصنوعی آینده را نیز به‌طور بالقوه آسیب‌پذیر می‌کند.

هوش مصنوعی و  رفع بحرانهای مالی

۱۰. بحران‌های مالی با استفاده از الگوریتم‌های هوش مصنوعی

بسیاری از کسانی که در بازار‌های مالی فعالیت دارند، از هوش مصنوعی برای پیش‌برد کار خود استفاده می‌کنند. هم‌چنین تحلیلگران اقتصادی و مالی از ابزار‌هایی مبتنی بر هوش مصنوعی استفاده می‌کنند. با توجه به این مورد احتمال اینکه بحران‌های مالی آینده را هوش مصنوعی ایجاد کند، بسیار زیاد است. علاوه بر این افرادی که پول و داده بیشتری در اختیار دارند، احتمالاً می‌توانند روند‌های اقتصادی را بهتر تشخیص دهند. این مورد نابرابری اقتصادی را افزایش خواهد داد و مشکلات اختلاف طبقاتی را بیشتر و بیشتر خواهد کرد.

ارسال نظرات
آخرین اخبار
گوناگون