هوش مصنوعی میتواند توضیح دهد چرا تاكنون فرازمینیها را ندیدهایم
برتری هوش مصنوعی در تمدنهای هوشمند میتواند به مانعی برای دسترسی آنها به فضای میانسیارهای یا میانستارهای تبدیل شود.
هوش مصنوعی میتواند توضیح دهد چرا تاكنون فرازمینیها را ندیدهایمنجوم و فضاعلمیچهارشنبه ۲۹ فروردین ۱۴۰۳ - ۲۲:۳۰مطالعه 7 دقیقهسارا ارجمندتبلیغاتتبلیغاتتبلیغاتبرتری هوش مصنوعی در تمدنهای هوشمند میتواند به مانعی برای دسترسی آنها به فضای میانسیارهای یا میانستارهای تبدیل شود .
تبلیغاتهوش مصنوعی به هزاران روش مختلف حضور خود را به ما نشان میدهد. این فناوری دارای قابلیتهایی مثل دسترسی به منابع عظیم داده، كشف كلاهبرداریهای مالی، هدایت خودروها و حتی پیشنهاد موسیقی است. از طرفی چتباتهای هوش مصنوعی عملكرد حیرتانگیزی دارند؛ اما تمام اینها تازه آغاز راه هستند .
آیا میتوانیم بفهمیم هوش مصنوعی با چه سرعتی توسعه مییابد؟ اگر پاسخ منفی باشد، آیا مفهوم فیلتر بزرگ را دربر دارد؟ پارادوكس فرمی به اختلاف بین احتمال بالای وجود تمدنهای پیشرفته و نبود شواهدی از حضور آنها اختصاص دارد .
راهحلهای زیادی برای چرایی وجود این اختلاف ارائه شدهاند. یكی از این فرضیهها «فیلتر بزرگ» است.فیلتر بزرگ به رویداد یا موقعیتی فرضی گفته میشود كه از تبدیل حیات هوشمند به موجودیتی میانسیارهای یا میانستارهای جلوگیری كرده و حتی میتواند به نابودی آن بینجامد .
از این دست رویدادها میتوان به تغییرات اقلیمی، جنگ هستهای، برخوردهای سیاركی، انفجارهای ابرنواختر، طاعون یا حتی موارد دیگری از رویدادهای فاجعهبار اشاره كرد؛ اما دربارهی رشد سریع هوش مصنوعی چه میتوان گفت؟پژوهشی جدید در مجله Acta Astronautica، نشان میدهد كه هوش مصنوعی در حال تبدیل شدن به ابرهوش مصنوعی (ASI) است كه میتواند یكی از فیلترهای بزرگ باشد .
عنوان این مقاله به این شرح است: «آیا هوش مصنوعی فیلتر بزرگی است كه باعث كمیاب شدن تمدنهای پیشرفته در جهان میشود؟» مؤلف این مقاله مایكل گرت از دانشكدهی فیزیك و نجوم دانشگاه منچستر است.هوش مصنوعی به عنوان یك فیلتر بزرگ میتواند مانع از دسترسی گونههای زیستی به فضاهای میانسیارهای و میانستارهای شود .
برخی افراد بر این باورند كه فیلتر بزرگ از تبدیل گونههای فناورانه مثل ما به گونههای چندسیارهای جلوگیری میكند. این خبر بدی است، زیرا گونههایی كه تنها یك خانه دارند، در معرض خطر انقراض یا ركود قرار میگیرند .
به باور گرت، گونهها بدون سیارهی پشتیبان در رقابت با زمان هستند. او مینویسد:چنین فیلتری پیش از آنكه تمدنها به ثبات و حضور چندسیارهای برسند، ظاهر میشود و نشان میدهد طول عمر رایج یك تمدن پیشرفته كمتر از ۲۰۰ سال است .
اگر فرضیهی فوق حقیقت داشته باشد، میتوان ثابت كرد چرا تاكنون هیچ اثری از فناوری یا مدرك دیگری از هوش فرازمینی پیدا نكردیم؛ اما این فرضیه دربارهی مسیر فناوری انسان چه میگویند؟ اگر با یك محدودیت ۲۰۰ ساله روبهرو شویم و این محدودیت به خاطر ASI باشد، سرنوشتمان چه خواهد بود؟گرت همچنین بر نیاز به ایجاد چارچوبهای قانونمند برای توسعهی هوش مصنوعی در زمین و پیشرفت جامعهی چندسیارهای برای مقابله با تهدیدهای موجود تأكید دارد .
ابرهوش مصنوعی (ASI) میتواند به طور كامل جایگزین نسل بشر بشودبسیاری از دانشمندان و متفكران میگویند ما در آستانهی تحولی عظیم قرار داریم. هوش مصنوعی در حال ایجاد تحول در چگونگی انجام كارها است؛ بخش زیادی از این تحول پشت صحنه رخ میدهد .
به نظر میرسد هوش مصنوعی میلیونها شغل را حذف كند و هنگامی كه با رباتیك همراه شود، دیگر حد و مرزی نخواهد داشت. قطعا این تحولات نگرانی آشكاری خواهند بود.با اینحال، نگرانیهای سیستماتیكتر و عمیقتری وجود دارند .
چه كسی الگوریتمها را مینویسد؟ آیا هوش مصنوعی تا حدی قادر به تشخیص خواهد بود؟ تقریبا با قطعیت میتوان گفت كه این امكان را خواهد داشت. آیا الگوریتمهای رقابتی، جوامع دموكراتیك قدرتمند را رو به زوال میبرند؟ آیا جوامع باز همچنان متوقف خواهند شد؟ آیا ASI برای ما تصمیمگیری خواهد كرد و در این صورت چه كسی پاسخگو خواهد بود؟پرسشهای فوق بدون هیچ پایان مشخصی در حال افزایش هستند .
استیون هاوكینگ همیشه هشدار میداد درصورتیكه هوش مصنوعی بهصورت مستقل به تكامل برسد، میتواند نسل بشریت را نابود كند. او در سال ۲۰۱۷ در گفتگو با مجلهی وایرد گفت:از این میترسم كه هوش مصنوعی به كلی جایگزین انسان شود .
اگر افراد در حال حاضر میتوانند ویروسهای كامپیوتری را طراحی كنند، احتمالا در آینده شخصی خواهد توانست نوعی هوش مصنوعی را طراحی كند كه خود را بهبود میدهد و تكثیر میكند. این نوع هوش شكل جدیدی از حیات خواهد بود كه میتواند بر انسانها برتری پیدا كند .
تركیب هوش مصنوعی و رباتیك میتواند به تهدیدی برای انسان تبدیل شود.هاوكینگ را شاید بتوان یكی از شاخصترین چهرههای هشدار دربارهی هوش مصنوعی دانست؛ اما او تنها نیست. رسانهها پر از بحثها و هشدارها و همچنین مقالههایی دربارهی قابلیتهای هوش مصنوعی هستند .
مهمترین هشدارها میگویند كه ASI میتواند سركش شود. برخی افراد این فرضیه را علمی تخیلی میدانند، اما گرت اینطور فكر نمیكند. به نوشتهی او:نگرانیها دربارهی ابرهوش مصنوعی (ASI) و سركش شدن آن در آینده یك مسئلهی مهم به شمار میروند .
مبارزه با این احتمال طی سالهای آینده به یك زمینهی پژوهشی روبهرشد برای رهبران هوش مصنوعی تبدیل خواهد شد.اگر هوش مصنوعی هیچ مزیتی نداشت، مسئله سادهتر میشد؛ اما این فناوری انواع مزیتها از تصویربرداری و تشخیص پزشكی بهبودیافته تا سیستمهای حمل و نقل ایمنتر را به دنبال دارد .
ترفند دولتها این است كه امكان رشد مزایا را بدهند و در عین حال آسیبها را كنترل كنند. به نوشتهی گرت، این مسئله بهویژه در حوزههای دفاعی و امنیت ملی اهمیت پیدا میكند كه در آنها رشد اخلاقی و مسئولیتپذیری اهمیت دارد .
مشكل اینجاست كه ما و دولتهایمان آمادگی كافی را نداریم. هرگز چیزی مانند هوش مصنوعی وجود نداشته و صرفنظر از اینكه چگونه برای ایدهپردازی و درك مسیر آن تلاش كنیم، به نتیجهی قابل انتظار نمیرسیم. بنابراین اگر ما در چنین موقعیتی قرار داریم، احتمالا دیگر موجودات بیولوژیكی در دیگر نقاط جهان هم همین شرایط را دارند .
ظهور هوش مصنوعی و ابرهوش مصنوعی میتواند مسئلهای كیهانی باشد و به همین دلیل آن را به كاندیدی مناسب برای فیلتر بزرگ تبدیل كند. خطری كه ASI میتواند تحمیل كند، این است كه شاید روزی دیگر نیازی به حیات بیولوژیكی سازندهاش نداشته باشد .
براساس توضیحات گرت، سیستمهای ASI با رسیدن به تكینگی فناورانه میتوانند از هوش بیولوژیكی سبقت بگیرند و با سرعتی به تكامل برسند كه حتی از مكانیزمهای ناظر خود پیش بیفتند و در نهایت به پیامدهای غیرمنتظره و غیرعمدی بینجامند، بهطوریكه بعید است با اخلاق و علایق بیولوژیكی سازگار باشند .
زندگی روی چند سیاره میتواند تهدید هوش مصنوعی را كمرنگ كند.چگونه ASI میتواند خود را از زندگی بیولوژیكی مزاحمی كه آن را اسیر كرده، رهایی پیدا كند؟ ممكن است ویروسی كشنده را مهندسی كند؛ یا از تولید و توزیع محصولات كشاورزی جلوگیری كند یا حتی به فروگداخت نیروگاه هستهای بینجامد و جنگی را آغاز كند .
هنوز نمیتوان به طور قطعی دربارهی احتمالات سخن گفت، زیرا قلمروی هوش مصنوعی نامشخص است. صدها سال پیش، نقشهنگارها هیولاهایی را در مناطق كشفنشدهی دنیا ترسیم میكردند و حالا این كاری است كه ما انجام میدهیم .
تحلیل گرت مبتنی بر این مسئله است كه ASI و انسانها فضای یكسانی را اشغال كنند؛ اما اگر بتوانیم به وضعیت چندسیارهای برسیم، این چشمانداز تغییر خواهد كرد. گرت مینویسد:برای مثال، گونههای بیولوژیكی چندسیارهای میتوانند از تجربیات مستقل سیارههای مختلف استفاده كنند و با افزایش تنوع استراتژیهای بقا از شكست تك نقطهای كه تمدن تك سیارهای تحمیل میكند، اجتناب كنند .
اگر بتوانیم خطر را روی سیارههای متعدد در اطراف چند ستاره توزیع كنیم، میتوانیم از خود در برابر بدترین پیامدهای احتمالی ASI محافظت كنیم. این مدل توزیعیافته با ایجاد افزونگی، انعطاف تمدن بیولوژیكی را در برابر فاجعههای هوش مصنوعی افزایش میدهد .
اگر یكی از سیارهها یا پایگاههایی كه انسان آینده اشغال میكند، در بقا در مقابل تكینگی فناورانهی ASI شكست بخورند، ممكن است بقیه جان سالم به در ببرند و از این شكست درس بگیرند.وضعیت چندسیارهای همچنین میتواند فراتر از نجات از دست ASI باشد .
براساس سناریوهای فرضی گرت میتوانیم تجربیات بیشتری را با هوش مصنوعی امتحان كنیم و در عین حال آن را محدود نگهداریم. هوش مصنوعی را روی یك سیارك ایزوله یا سیاره كوتوله در نظر بگیرید كه به منابع لازم برای فرار دسترسی ندارد و به این صورت میتوان آن را محدود كرد .
به نوشتهی گرت:این سناریو برای محیطهای ایزوله صدق میكند كه در آنها آثار هوش مصنوعی پیشرفته را میتوان بدون ریسك آنی نابودی سراسری بررسی كرد.با اینحال یك مسئلهی پیچیده در اینجا مطرح میشود. هوش مصنوعی با سرعتی فزاینده در حال پیشرفت است، در حالی كه تلاشهای انسان برای تبدیلشدن به گونهی چندسیارهای سرعت پائینی دارند .
به نوشتهی گرت، ناسازگاری بین پیشرفت سریع هوش مصنوعی و توسعهی آهستهی فناوری فضایی بسیار واضح است.سرعت پیشرفت هوش مصنوعی بسیار بیشتر از سفرهای فضایی استتفاوت در اینجاست كه هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفرهای فضایی با موانع فیزیكی متعددی روبهرو هستند كه هنوز روش غلبه بر آنها را نمیدانیم .
ماهیت بیولوژیكی انسان مانعی برای سفرهای فضایی است، اما هیچ كدام از این موانع هوش مصنوعی را محدود نمیكنند.بیشتر بخوانید:اغلب فرازمینیها احتمالاً هوش مصنوعی هستند20 خرداد 02مطالعه '5چرا احتمال مصنوعی بودن هوش فرازمینی بیشتر است؟6 آبان 00مطالعه '6به نوشتهی گرت، با اینكه هوش مصنوعی از نظر تئوری قابلیتهای خود را حتی بدون محدودیتهای فیزیكی بهبود میدهد، سفرهای فضایی با محدودیتهای انرژی، علم مواد و واقعیتهای خشن محیط فضا روبهرو هستند .
در حال حاضر هوش مصنوعی تحت محدودیتهایی كه انسان تعیین كرده عمل میكند؛ اما شاید همیشه این طور نباشد. هنوز نمیدانیم هوش مصنوعی چه زمانی ممكن است به ASI تبدیل شود؛ اما نمیتوانیم این احتمال را نادیده بگیریم .
این مسئله میتواند به دو نتیجهگیری درهمتنیده منجر شود.اگر حق با گرت باشد، انسان باید بیشتر برای سفرهای فضایی تلاش كند. شاید به نظر دور از دسترس برسد، اما افراد آگاه میدانند كه زمین برای همیشه سكونتپذیر نخواهد بود .
اگر انسان تمدن خود را به داخل فضا گسترش ندهد، ممكن است به دست خود یا به دست طبیعت نابود شود. با اینحال دستیابی به ماه و مریخ میتواند نویدبخش گامهای آینده باشد.دومین نتیجهگیری در ارتباط با قانونمند شدن و نظارت بر هوش مصنوعی است؛ وظیفهای دشوار در جهانی كه بیمارهای روانی میتوانند كنترل كل ملتها را به دست بگیرند و به جنگافزوزی منجر شوند .
به نوشتهی گرت، با اینكه ذینفعان صنایع، سیاستگذارها، كارشناسان مستقل و دولتهایشان دربارهی ضرورت قانونگذاری هشدار میدهند، ایجاد یك چارچوب قانونی كه در سراسر جهان پذیرفته شود كار دشواری است.در واقع اختلاف همیشگی بشریت، هدف نظارت بر هوش مصنوعی را غیرقابل كنترل میسازد .
صرفنظر از اینكه با چه سرعتی راهبردها را توسعه دهیم، ابرهوش مصنوعی میتواند با سرعت بیشتری رشد كند. در واقع بدون قانون كاربردی، دلیلی بر این باور وجود دارد كه هوش مصنوعی نهتنها تهدیدی برای تمدن آینده بلكه تهدیدی برای كل تمدنهای پیشرفته به شمار میرود .
منبع : https://www.zoomit.ir/space/419650-ai-explain-why-we-dont-visit-aliens/