کد خبر: ۷۰۴۶۰
۲۰:۰۰ -۲۴ آذر ۱۴۰۴

سرعت پایین انسان مانع پنهان رسیدن به هوش عمومی مصنوعی (AGI)

الکساندر امبیریکوس می‌گوید سرعت پایین تایپ و نظارت انسانی به گلوگاه اصلی پیشرفت هوش مصنوعی عمومی (AGI) و گسترش عامل‌های خودکار تبدیل شده است.

هوش عمومی مصنوعی (AGI)

نشان تجارت - در حالی که رقابت جهانی برای دستیابی به هوش عمومی مصنوعی یا AGI معمولا بر پیشرفت مدل‌ها، داده‌های عظیم و توان محاسباتی متمرکز است، یکی از مدیران ارشد OpenAI به مانعی متفاوت و کمتر دیده‌شده اشاره می‌کند؛ مانعی که نه فنی، بلکه انسانی است. الکساندر امبیریکوس، مدیر توسعه محصول Codex در OpenAI، معتقد است سرعت پایین تایپ انسان و ناتوانی او در انجام همزمان چند وظیفه نوشتاری، به یکی از گلوگاه‌های اصلی در مسیر رسیدن به AGI تبدیل شده است.

امبیریکوس این دیدگاه را در گفت‌وگویی که در یک پادکست تخصصی منتشر شد، مطرح کرد و توضیح داد که با وجود پیشرفت شتابان مدل‌های هوش مصنوعی، نحوه تعامل انسان با این سیستم‌ها اکنون به عاملی محدودکننده تبدیل شده است. به گفته او، مدل‌ها سریع‌تر از همیشه فکر می‌کنند، تحلیل می‌کنند و پاسخ می‌دهند، اما انسان‌ها همچنان باید دستورات را تایپ کنند، خروجی‌ها را بخوانند و صحت آن‌ها را بررسی کنند؛ فرآیندی که ذاتا کند و زمان‌بر است.

هوش عمومی مصنوعی مفهومی نظری است که به سیستمی اشاره دارد که می‌تواند در طیف گسترده‌ای از حوزه‌ها، مشابه یا حتی فراتر از انسان استدلال کند، یاد بگیرد و تصمیم بگیرد. این هدف نهایی بسیاری از آزمایشگاه‌های پیشرو هوش مصنوعی از جمله OpenAI، گوگل دیپ‌مایند و آنتروپیک محسوب می‌شود. اظهارات امبیریکوس نشان می‌دهد که رقابت برای AGI به مرحله‌ای رسیده که حتی محدودیت‌های فیزیکی و شناختی انسان نیز به عنوان مانع مورد توجه قرار گرفته‌اند.

یکی از نکات کلیدی که امبیریکوس بر آن تاکید کرد، بار سنگین نوشتن دستورها و اعتبارسنجی خروجی‌هاست. او توضیح داد که حتی اگر یک عامل هوش مصنوعی بتواند بخش بزرگی از کار را انجام دهد، در نهایت این انسان است که باید نتیجه را بررسی، تایید یا اصلاح کند. این موضوع به‌ویژه در حوزه‌هایی مانند توسعه نرم‌افزار اهمیت بیشتری دارد، جایی که بازبینی کد نیازمند تمرکز بالا و صرف زمان قابل توجه است.

به باور او، تا زمانی که انسان‌ها مجبور باشند دستورهای دقیق بنویسند و مرحله‌به‌مرحله خروجی‌ها را کنترل کنند، افزایش بهره‌وری در مقیاس بزرگ محدود خواهد ماند. در چنین شرایطی، عامل هوش مصنوعی می‌تواند با سرعت بسیار بالا حرکت کند، اما شریک انسانی او قادر نیست هم‌پای این سرعت پیش برود. این عدم توازن، سقفی طبیعی برای میزان خودکارسازی ایجاد می‌کند.

امبیریکوس معتقد است برای عبور از این محدودیت، باید تغییر اساسی در طراحی و استقرار سیستم‌های هوش مصنوعی ایجاد شود. به گفته او، عامل‌های آینده نباید وابسته به دخالت دائمی انسان باشند، بلکه باید به‌گونه‌ای ساخته شوند که به‌صورت پیش‌فرض مفید عمل کنند. این مفهوم به معنای عامل‌هایی است که بتوانند به‌طور مستقل تصمیم‌های معقول بگیرند، بخش بزرگی از کار خود را ارزیابی کنند و تنها در موارد ضروری به انسان رجوع کنند.

او پیش‌بینی می‌کند که چنین تغییری می‌تواند جهشی بزرگ در بهره‌وری ایجاد کند؛ جهشی که در ادبیات فناوری از آن با عنوان رشد چوب هاکی یاد می‌شود. در این الگو، رشد برای مدتی نسبتا ثابت باقی می‌ماند و سپس به‌طور ناگهانی و شدید افزایش می‌یابد. در زمینه هوش مصنوعی، این به معنای افزایش چشمگیر توان افراد و سازمان‌ها در انجام کارها با کمک عامل‌های خودمختار خواهد بود.

با این حال، امبیریکوس هشدار می‌دهد که این گذار ناگهانی و یک‌شبه نخواهد بود. صنایع مختلف نیازها و حساسیت‌های متفاوتی دارند و مسیر خودکارسازی در هر حوزه شکل خاصی به خود می‌گیرد. او انتظار دارد این تحول به‌صورت تدریجی اما شتاب‌گیر رخ دهد و ابتدا در میان کاربران پیشرو و سازمان‌های نوآور دیده شود.

به گفته او، از سال آینده می‌توان نشانه‌های اولیه این تغییر را مشاهده کرد؛ زمانی که پذیرندگان اولیه، افزایش شدید بهره‌وری را تجربه خواهند کرد. به‌تدریج، این دستاوردها به شرکت‌های بزرگ‌تر و سنتی‌تر نیز سرایت می‌کند و ساختار بسیاری از صنایع را دگرگون خواهد ساخت.

از نگاه امبیریکوس، AGI نه به‌عنوان یک لحظه ناگهانی، بلکه در میانه این فرایند و همزمان با گسترش بهره‌وری عامل‌های خودمختار پدیدار خواهد شد. زمانی که این عامل‌ها به‌طور گسترده مفید باشند و از طریق استفاده در دنیای واقعی به‌طور مداوم بهبود یابند، می‌توان گفت هوش عمومی مصنوعی عملا به واقعیت تبدیل شده است. این دیدگاه نشان می‌دهد که مسیر رسیدن به AGI بیش از آنکه به افزایش خام قدرت محاسباتی وابسته باشد، به حذف محدودیت‌های انسانی در تعامل با ماشین‌ها گره خورده است.

ارسال نظرات
آخرین اخبار
گوناگون