آیا یادگیری ماشینی باید در هوش مصنوعی برنده اعلام شود و بنابراین ما می توانیم سایر راه های هوش مصنوعی را رها کنیم؟
برخی می گویند این شهر برای هر دوی آنها به اندازه کافی بزرگ نیست.
من به چه چیزی اشاره می کنم؟
خوب، ممکن است من از یک خط به یاد ماندنی همیشه محبوب و قدیمی از یک فیلم قدیمی درباره دو گاوبازی در حال جنگ استفاده کنم. بله، در فیلم کلاسیک گاوچران وسترن کد که در سال 1932 منتشر شد، یک قهرمان سابق قانون سوار به شهر می‌رود و با رفیق محلی روبرو می‌شود. درگیری رو در رو رخ می دهد که در آن یکی به شدت به دیگری می گوید که از شهر خارج شود.
در اینجا دیالوگی است که مطمئناً با آن آشنا هستید زیرا به طور اجتناب ناپذیری از نظر تاریخی ویروسی شد (نوعی) و از آن زمان تاکنون در طرح‌های بی‌شماری مورد استفاده قرار گرفته و احیا شده است: «من از دخالت شما خسته شده‌ام. این شهر به اندازه کافی برای هر دوی ما بزرگ نیست و من به شما 24 ساعت فرصت می دهم تا از آنجا خارج شوید. اگر فردا تا این ساعت تو را در کارابیناس ببینم، من یا تو هستیم!» (به نقل از فیلم وسترن کد ).
خطوط تقریباً یکسانی از چنین گفت‌وگوهای صمیمانه‌ای را می‌توان به راحتی در انواع فیلم‌ها و برنامه‌های تلویزیونی، از جمله در مورد غرب وحشی، در مورد کارآگاهان دوئل، وکلای دوئل، جاسوسان دوئل و غیره یافت. با وجود این، من آشکارا اعتراف می کنم که به طور خاص به خط اصلی اشاره نمی کنم و در عوض تجسم سودمند دیگری از آن را اصلاح می کنم، و این کار را برای توصیف موجز یک تقابل مداوم و بالقوه پایدار در زمینه رو به رشد هوش مصنوعی (AI) انجام می دهم.
می بینید، میدان هوش مصنوعی در نبردی تا حدودی ظریف و در عین حال به طور فزاینده ای پر سر و صدا و تند تند غوطه ور است که بین نمادهای فرعی در مقابل نمادها در جریان است. یکی از اردوگاه ها به اردوگاه دیگر می گوید که از شهر خارج شود. یک خیره شدن در حال انجام است. اسلحه کشیده می شود. مردم شهر خم شده اند و منتظرند ببینند چه اتفاقی خواهد افتاد.
این وضعیت هولناک هوش مصنوعی امروزی را می‌توان به دعواهای خانوادگی بدنام بین هتفیلدها و مک‌کوی‌ها، آن دو خانواده افسانه‌ای در مناطق ویرجینیای غربی و کنتاکی که در اواخر دهه 1800 به شدت درگیر شدند، تشبیه کرد. اما به جای اینکه هتفیلد و مک کوی پا به پا می شوند، ما اردوگاه نمادین فرعی متمرکز بر هوش مصنوعی امروزی و خانواده نمادهای هوش مصنوعی هنوز در آنجا را داریم که به شدت با یکدیگر می جنگند.
در اینجا چگونگی شکل گیری این دعوای درونی هوش مصنوعی است.
و، ممکن است اضافه کنم، ما باید به این توجه اساسی بپردازیم، زیرا می تواند آینده هوش مصنوعی و شاید آینده جامعه را تعیین کند، اگر فرض کنید هوش مصنوعی واقعاً یک نیروی دگرگون کننده در حال جوانه زدن است که آنچه ما انجام می دهیم و دنیای ما را تغییر می دهد. زندگی کنید. این بحث تفرقه‌انگیز پشت صحنه مملو از اخلاق هوش مصنوعی و پیامدهای اخلاقی هوش مصنوعی است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، فقط برای نام بردن چند مورد، پیوند را در اینجا و پیوند اینجا را ببینید.
یک مکان دنج برای نشستن و لذت بردن از داستان شادی و بدبختی پیدا کنید.
برای شروع، ممکن است سر خود را خارانید که ظاهراً تا به حال در مورد نمادهای فرعی هوش مصنوعی نشنیده اید و نام این نمادهای هوش مصنوعی را نیز تشخیص نمی دهید. دلسرد یا خجالت نکشید زیرا این عبارات رایج رایج روزمره نیستند (این اصطلاح نیمه سری است که توسط خودی های هوش مصنوعی استفاده می شود).
من حاضرم روی سکه طلای ارزشمندم شرط ببندم که بدون شک نام های یادگیری ماشینی (ML) و یادگیری عمیق (DL) را شنیده اید، که برای بحث، پیشرو در زیر نمادهای هوش مصنوعی است. استفاده از ML/DL بحث شهر است. عناوینی که جدیدترین‌های هوش مصنوعی را منتشر می‌کنند، احتمالاً عبارت‌های یادگیری ماشینی یا یادگیری عمیق را پرت می‌کنند و توجه شما را به خود جلب می‌کنند. این عبارت واقعاً از زبان خارج می شود.
به طور کلی، می‌توانید قوی‌ترین جانبازان ML/DL را به‌عنوان اعضای کارت‌دار اردوگاه نمادهای فرعی هوش مصنوعی تعبیر کنید. اساس برچسب گذاری به عنوان نمادین فرعی این است که اصل رویکرد ML/DL مستلزم تلاش برای دستیابی به رفتاری شبیه رفتار «هوشمند» مدل‌سازی شده محاسباتی با استفاده از فرمول‌های ریاضی نسبتاً محرمانه است.
نگرانی در مورد این رویکرد فرعی نمادین شامل دشواری توانایی توضیح اینکه چگونه ML/DL به برخی از انتخاب ها رسیده است یا تصمیماتی را اتخاذ کرده است. کل شبنگ می تواند از نظر ریاضی آنقدر متراکم و پیچیده باشد که به راحتی نتوانید کشف کنید که چه چیزی منجر به یک نتیجه خاص شده است. در عوض، یک باتلاق محاسباتی و تزریقی وجود دارد که باید امیدوار باشید کار درستی انجام داده و پاسخ مناسبی را محاسبه کرده باشید. این عدم تفسیرپذیری باعث ایجاد زیرشاخه‌ای از هوش مصنوعی به نام هوش مصنوعی توضیح‌پذیر شده است که معمولاً به اختصار XAI نامیده می‌شود و هدف آن ایجاد هوش مصنوعی است که بتواند تا حدودی خودش را توضیح دهد، پوشش من را در پیوند اینجا ببینید .
می‌خواهم پیش‌زمینه دیگری درباره ماهیت ML/DL با شما به اشتراک بگذارم، اما قبل از انجام این کار، ممکن است برای من مفید باشد که به طور خلاصه نشان دهم که اردوگاه نمادین هوش مصنوعی متضاد چه چیزی را نشان می‌دهد. این به شما یک مبنای مقایسه ای می دهد که چرا این موضوع به یک دشمنی هتفیلد و مک کوی یا یک رقابت کلاسیک «برو از شهر» تبدیل شده است.
با تعویض دنده، چشم خود را به سمت اردوگاه نمادین هوش مصنوعی معطوف کنید.
کمپ نمادین بدون شک برای هر یک از شما که از هوش مصنوعی که در دهه های 1980 و 1990 بوجود آمد آگاه است، می شناسد. این دوران اوج اولیه هوش مصنوعی بود که استفاده از سیستم‌های مبتنی بر دانش (KBS) یا گاهی اوقات به عنوان سیستم‌های خبره (ES) معرفی می‌شد. اصل ماجرا این بود که سیستم‌های هوش مصنوعی بر اساس شناسایی صریح قوانین یا منطقی که زیربنای رفتار «هوشمندانه» فرضی هستند، ابداع می‌شوند. شما می توانید با یک متخصص انسانی در پزشکی یا امور مالی کار کنید، مشخص کنید که آنها از چه نوع قوانین منطقی استفاده می کنند و به اصطلاح پایگاه دانش مبتنی بر رایانه ایجاد می کنید که به نوعی آن قوانین شناختی بیان شده را تکرار می کند. اینها سیستم های مبتنی بر قوانین (RBS) یا به طور معادل به عنوان KBS یا ES در نظر گرفته می شدند.
در نهایت رویکرد مبتنی بر قواعد و اردوگاه نمادین با نارضایتی مواجه شد. نظر غالب این بود که ما فقط می‌توانیم کسری از قوانینی را که واقعاً زیربنای دانش هستند، روشن کنیم. علاوه بر این، یک عامل مخدوش کننده استفاده از دانش عقل سلیم بود. به نظر می‌رسید که برای استفاده از دانش تخصصی اغلب به پایه‌ای نیاز دارید که حاوی دانش عقل سلیم باشد، مانند دانستن اینکه پرندگان پرواز می‌کنند، آسمان آبی است و سایر آگاهی‌های عادی روزمره. ما هنوز تا به امروز با موفقیت کد نحوه تجسم محاسباتی عقل سلیم را شکسته‌ایم، اگرچه این پیگیری به شدت ادامه دارد، تحلیل من را در پیوند اینجا ببینید .
همچنین ممکن است بدانید که وقتی شیدایی هوش مصنوعی در اواخر دهه 1990 شروع به فروکش کرد، حوزه هوش مصنوعی تا حدودی کنار گذاشته شد و دیگر به همان توجه بزرگی که قبلاً داشت، توجه نمی شد. این دوران زمانی بود که حوزه هوش مصنوعی کمی دچار رکود شد، که امروزه معروف است که گفته می‌شود زمستان AI خفت‌بار است. این نامگذاری زمستانی جذاب بود زیرا هوش مصنوعی ظاهراً به خواب زمستانی رفته بود و دیگر مانند گودزیلا گام بر نمی داشت.
به نظر می رسید که هوش مصنوعی مورد انتظار که قرار بود مبتنی بر رویکردی نمادین باشد، شکست خورده بود. غم به وجود آمد. زمستان بسیار مهم بود و بسیاری را در مورد اینکه حوزه هوش مصنوعی در آینده چه خواهد کرد مطمئن نبود. خیابان نمادین شهرت بدی به عنوان یک بن بست پیدا کرد. قرار دادن تخم مرغ در آن سبد معنی ندارد.
در همین حال، ظهور نهایی یادگیری ماشینی و یادگیری عمیق در پشت صحنه نفوذ می کرد. به نظر می رسد که خارجی ها فکر می کنند که ML/DL به طور جادویی از ناکجاآباد ظاهر شده است. شما ممکن است این تصور را با آن ستاره‌های بسیار محبوب سینما مقایسه کنید که گاهی فکر می‌کنید یک شبه به موفقیت رسیده‌اند و از بی‌تفاوت ظاهر شده‌اند. بسیاری از آنها سال ها در نقش های کوچک تلاش می کردند و هر گونه درگیری بازیگری را که می توانستند انجام می دادند.
همین مورد را می توان برای ML/DL ایجاد کرد. تلاشی در جهت پیشرفت ML/DL بود. تا زمان مدرن تر بود که منابع محاسباتی مورد نیاز در دسترس قرار گرفت. این تا حد زیادی با ظهور محاسبات ابری مصادف شد. علاوه بر این، معمولاً داده‌های زیادی برای ML/DL مورد نیاز است، که برای آن پایگاه‌های داده در مقیاس بزرگ و دیگر دریاچه‌های داده و انبارهای داده کنار هم قرار گرفته و در دسترس قرار می‌گیرند.
نوعی همگرایی بزرگ از پیشرفت‌ها در ML/DL، همراه با مجموعه داده‌های به‌راحتی در دسترس، و همراه با محاسبات کم‌هزینه‌تر که می‌توان از راه دور به آن دسترسی داشت و به اشتراک گذاشت، همگی برای کمک به تقویت حرکت به سمت پذیرش و استفاده از ML/DL گرد هم آمدند. بچه جدید در بلوک سال ها در حال ساخت بود.
در اینجا چند نکته کلیدی از این درس تاریخ مختصر در مورد آزمایشات و مصائب حوزه هوش مصنوعی آورده شده است:

اکنون آماده بررسی این سوال هستیم که چه کسی قرار است از شهر خارج شود.
طرفداران صریح رویکرد زیر نمادین وجود دارند که پافشاری می‌کنند که راه فرعی نمادین تنها راه برای دستیابی به یک هوش مصنوعی کاملاً دست‌یافته است که احتمالاً به سمت احساس فرو می‌رود. آنها در آن موضع پافشاری، اردوگاه نمادین را آشکارا تحقیر می کنند. به نظر می رسد نکته این است که همه سبک ها یا رویکردهای دیگر هوش مصنوعی باید در برابر رویکرد نمادین فرعی تعظیم کرده و دست به دامن آن شوند. زانو بگیر منابع گرانبها را در سمت "بازنده" هدر ندهید، و در عوض به سمت برنده بپرید.
به‌عنوان کنار، من پیشنهاد نمی‌کنم که همه این را می‌گویند، و فقط آنچه را که برخی از طرفداران ML/DL سرسخت‌تر و سرسخت‌تر بیان می‌کنند یا به آن اشاره می‌کنند، برجسته می‌کنم. اگر به طور کامل وارد اردوگاه نمادهای فرعی هستید و با این حال این موضع نسبتاً قاطعانه و مخالف را اتخاذ نمی کنید، تمایل شما به صراحت پذیرفته شده است.
اما برگردیم به آنهایی که چمن خود را کنار می گذارند. این یک چیز است که سعی کنید چمن خود را به نمایش بگذارید، در حالی که اصرار به اینکه دیگران نیز از چمن خود دست بکشند چیز دیگری است. رفتن آن مایل اضافی برای بیرون راندن دیگر صاحبخانه‌ها بی‌رویه طاقت‌فرسا به نظر می‌رسد. در اصل، برخی از طرفداران نمادهای فرعی معتقدند که تمام هوای اتاق باید به درستی و منحصراً به طور کامل برای طرفداران ML/DL محفوظ باشد. یا گاوداری داری یا نداری. هیچ گونه کشاورزی کشاورزی مجاز نیست.
با وام گرفتن از غرب قدیم، این شهر برای هر دوی آنها (یعنی نمادهای فرعی و نمادین) به اندازه کافی بزرگ نیست، و علاوه بر این، طرفداران رادیکال زیر نمادها، 24 ساعت به شما نمادهایی می دهند. برای خروج از شهر (بنابراین به نمادهای فرعی آن طرز فکر توصیه می شود).
ما به طور قطع نمی دانیم که 24 ساعت شامل چه چیزی است، که آشکارا به صورت استعاری استفاده می شود و ماهیت تحت اللفظی ندارد. فرض می‌شود که برخی از نمادهای فرعی می‌خواهند مهلت 24 ساعت گذشته باشد و بنابراین نمادها باید وسایل خود را رها می‌کردند و شهر را ترک می‌کردند، تا آنجا که می‌توانستند دورتر و سریع‌تر سوار می‌شدند. فراتر از افق ناپدید می شود و دیگر دیده نمی شود. خورشید روی نمادها غروب کرده است.
برخی دیگر ممکن است «معقول‌تر» باشند و نشان دهند که بسته شدن کتاب‌ها ممکن است چند ماه یا احتمالاً چند سال طول بکشد. اکنون با کنار گذاشتن تدریجی این درخواست های کمک هزینه شروع کنید. بسته بندی آزمایشگاه ها نیازی به ادامه انتشار نیست زیرا به هر حال ناامیدکننده است. در مجموع، باید در موقعیتی قرار بگیرید که بتوانید چراغ ها را خاموش کنید و به انجام کار دیگری بروید، تا زمانی که در آن «اختلال» نمادین غوطه ور نباشد که چیزی جز ناامیدی و بیهودگی ندارد.
وای، شما می توانید تصور کنید که چگونه این کلمات جنگنده هستند.
آیا باید جلو برویم و تصمیم بگیریم همه تخم‌های خود را در سبد نمادین فرعی هوش مصنوعی قرار دهیم؟
این موضوع ملاحظات اخلاقی هوش مصنوعی را مطرح می کند و سؤالات مرتبطی را در مورد حال و آینده هوش مصنوعی ایجاد می کند.
به عنوان مثال، ممکن است فکر کنید که این فقط یک جنگ داخلی در حوزه هوش مصنوعی است و به سطحی از اهمیت نمی‌رسد که دیگران باید آن را ارزیابی کنند. آنها باید بفهمند چه چیزی درست است و چه چیزی احتمالاً گمراه است. نیازی نیست و هیچ مبنایی برای دخالت هیچ کس دیگری وجود ندارد.
چالش این دیدگاه این است که اگر فکر می‌کنید هوش مصنوعی جامعه و زندگی ما را عمیقاً تغییر می‌دهد، این تصور که به خودی‌های هوش مصنوعی اجازه می‌دهیم کارها را حل کنند ممکن است نتایجی را که جامعه به‌عنوان یک کل دوست دارد به همراه نداشته باشد. هر روز شاهد سونامی از برنامه های کاربردی جدید مبتنی بر هوش مصنوعی هستیم که مشتاقانه در جامعه پخش می شوند. خیلی تنگ نظرانه به نظر می رسد که به سادگی به خودی های هوش مصنوعی اجازه دهیم که ظاهراً چنین انتخاب مهم و مهمی را به اختیار خودشان انجام دهند.
برای ساختن و درست کردن هوش مصنوعی به یک دهکده نیاز است.
قبل از ورود به گوشت آن چندین مسیر، اجازه دهید برخی از جزئیات اساسی اضافی را ایجاد کنیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، ما می‌توانیم با بررسی منظورم وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، صحنه را بیشتر تنظیم کنیم.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که وقتی آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی نسبت به چیزی که برخی اکنون آن را AI For Good می‌نامند ، وجود داشت. متأسفانه، پس از آن هیجان شدید، ما شاهد AI For Bad بودیم. به عنوان مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند، که من در پیوند اینجا بحث کرده‌ام.
تلاش ها برای مقابله با هوش مصنوعی For Bad به طور فعال در حال انجام است. علاوه بر پیگیری‌های حقوقی پر سر و صدا برای مهار تخلف، فشار اساسی برای پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت‌های هوش مصنوعی نیز وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و میدان‌دهی هوش مصنوعی بپذیریم و تأیید کنیم تا هوش مصنوعی برای بد را تضعیف کنیم و به طور همزمان هوش مصنوعی مطلوب برای خوب را تبلیغ و ترویج کنیم.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. به عنوان مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی قرار دهیم که بر نحوه انجام کارها توسط بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند، بحث من را در پیوند اینجا ببینید . ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق AI عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در لینک اینجا ببینید ).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی شامل می‌شود، پیدا می‌کنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که واتیکان در دعوت رم برای اخلاق هوش مصنوعی بیان کرد و همانطور که در پیوند اینجا به طور کامل توضیح داده ام، اینها شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها هستند:

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در اصول اخلاقی خود برای استفاده از هوش مصنوعی بیان شده است و همانطور که من به طور کامل در لینک اینجا توضیح داده ام، این شش اصل اخلاقی هوش مصنوعی است:

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. در Nature )، و پوشش من در پیوند اینجا ، که به این فهرست کلیدی منتهی شد، کاوش می‌کند:

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از این، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی دست خواهیم یافت یا خیر، یا اینکه آیا هوش مصنوعی به نحوی معجزه آسا خود به خود در شکلی از ابرنواخترهای شناختی محاسباتی پدید می آید (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در لینک اینجا ببینید ).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی هوشیار حدس بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، پوشش را در اینجا ببینید ).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری در تعامل هستید، ظرفیت‌های مکالمه ممکن است شبیه ظرفیت‌های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوهای محاسباتی استفاده می کنند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شوند.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که الگوی تصمیم‌گیری‌ها را اتخاذ کرده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این پیچیده تر از آن چیزی است که به نظر می رسد. شانس کاملی وجود دارد که حتی با انجام آزمایش‌های نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.
می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه تعصباتی است که به صورت موذیانه به عنوان سوگیری های غوطه ور در هوش مصنوعی القا می شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.
خوب نیست.
بیایید اکنون به بحث در مورد اینکه چه کسی در شهر در نظر گرفته می شود، و همچنین چه کسی باید در شهر باشد یا نباید در شهر باشد، برگردیم.
شکوه در حال حاضر به وضوح در اردوگاه نمادهای فرعی هوش مصنوعی و به ویژه استفاده در حال گسترش از یادگیری ماشین و یادگیری عمیق است. یکی از نگرانی‌ها این است که حتی جنبه‌هایی مانند رویکرد ما به اخلاق هوش مصنوعی به دلیل اشتغال به ML/DL به طور ناخودآگاه منحرف شده است. در اصل، برخی از روش‌های اخلاق هوش مصنوعی تنها بر هوش مصنوعی متمرکز هستند که از امکانات ML/DL تشکیل شده است. به نظر نمی رسد آن ها تصدیق کنند که مجموعه ای از روش های اخلاقی هوش مصنوعی نیز باید برای اردوگاه نمادین هوش مصنوعی ایجاد شود. گویی رویکرد ML/DL تنها بازی در شهر است.
خوشبختانه، جوهر اکثر قوانین اخلاقی هوش مصنوعی به اندازه کافی گسترده است که در هر دو گروه اعمال شود. با این وجود، معمولاً نشان دادن نحوه اجرای هوش مصنوعی اخلاقی در ML/DL بیشتر از ابزارهای نمادین هوش مصنوعی بیشتر وجود دارد. می‌توانید به این نکته اشاره کنید که این امر منطقی است زیرا این روزها برتری هوش مصنوعی در ML/DL انجام می‌شود، بنابراین از نظر اخلاقیات هوش مصنوعی که با رویکرد داغ‌تر تنظیم شده است، سود بیشتری خواهید داشت.
آیا همه اینها نشان می دهد که تنها راه رو به جلو از طریق مسیر نمادین فرعی هوش مصنوعی است؟
برای کسانی که معتقدند در نهایت به هوش مصنوعی حساس یا شاید هوش عمومی مصنوعی (AGI) دست خواهیم یافت، یک خط فکری این است که این امر منحصراً از طریق افزایش مقیاس‌بندی با تلاش‌های زیر نمادین موجود در ML/DL خواهد بود. قدرت محاسباتی بیشتر و بیشتری را در ترکیب قرار دهید. آن مدل‌های تطبیق الگوی محاسباتی را از نظر اندازه بزرگ کنید. به قول خودشان بزرگ برو و به پشت سر نگاه نکن.
همین حامیان همچنین ممکن است ادعای به ظاهر منطقی داشته باشند که هرگونه توجه و استفاده از منابع محدود توسعه هوش مصنوعی ما به سمت دیگر راه‌های هوش مصنوعی نه تنها نادرست است، بلکه برای رسیدن به هوش مصنوعی یا AGI کاملاً مضر است (برای پوشش من در AGI رجوع کنید به لینک اینجا ). ادعا این است که اردوی نمادین به طور ناخواسته انرژی هایی را تخلیه می کند که به درستی باید به حوزه زیر نمادین بروند. در این دیدگاه، خانواده نمادهای هوش مصنوعی هم اشتباه گرفته می شود و هم بدتر از آن که هنوز هم از نمادهای فرعی هوش مصنوعی رقیق و منحرف می شود.
به طور خلاصه، بر اساس این دیدگاه جزمی، نمادهای هوش مصنوعی باید از شهر خارج شوند (یا، به طور متناوب، نمادهای نمادین را کنار بگذارند و مسیر واقعی نمادهای فرعی هوش مصنوعی را در آغوش بگیرند). در این قسمت‌های اطراف، یعنی زیر نمادهای هوش مصنوعی خشن و آماده، تنها جا برای یک گاوبازی وجود دارد.
گری مارکوس، محقق، ظهور چیزی را که به عنوان «هوش جایگزین» در وبلاگ زیرمجموعه جدیدش شناخته می‌شود، توصیف می‌کند : « هوش جایگزین در مورد ساخت ماشین‌هایی نیست که مشکلات را به روش‌هایی حل کنند که مربوط به هوش انسانی است. این در مورد استفاده از حجم عظیمی از داده ها – اغلب ناشی از رفتار انسان – به عنوان جایگزینی برای هوش است. در حال حاضر، بخش غالب کار در Alt Intelligence، ایده مقیاس‌بندی است. این تصور که هر چه سیستم بزرگ‌تر باشد، به هوش واقعی، شاید حتی آگاهی نزدیک‌تر می‌شویم» (پست 14 می 2022، با عنوان «علم جدید هوش جایگزین»).
همه اینها می تواند کاملا وسوسه انگیز باشد. اگر واقعاً خیابان نمادهای فرعی هوش مصنوعی درست و تنها راه باشد، بدون شک معقول خواهد بود که همه به آب بپرند و با هم به سوی هدف آرمانی هوش مصنوعی شنا کنند. ما باید ظاهراً از اسب برنده حمایت کنیم و وقت خود را صرف آن قسمت‌هایی از هوش مصنوعی نکنیم که ظاهراً ما را عقب نگه می‌دارند یا بهترین مسیر را کاهش می‌دهند.
آیا ما یا باید چنین شرط بندی کنیم؟
فرض کنید همه نمادهای هوش مصنوعی بدون تردید موافق پیوستن به صفوف نمادهای فرعی هوش مصنوعی هستند. دیگر هیچ تلاش نمادین هوش مصنوعی وجود ندارد. تمام فناوری‌ها، تحقیقات، روش‌ها و سایر کیت‌ها و کابودل‌های نمادین مبتنی بر هوش مصنوعی در جعبه‌هایی بسته‌بندی می‌شوند و اجازه می‌دهند گرد و غبار را جمع کنند.
اگر حدس درست بود که نمادهای فرعی هوش مصنوعی انتخاب شده بود، بسیار خوب، ما یک انتخاب عالی انجام دادیم، اگرچه شاید خوش شانس بودیم. گاهی اوقات در لاتاری برنده می شوید.
اگر این حدس اشتباه بود و ما محدودیت‌هایی را در نمادهای فرعی هوش مصنوعی که شاید آن‌ها را ندیده‌ایم رعایت کنیم، این سوال پیش می‌آید که آیا با توقف تلاش‌ها در زاویه نمادین هوش مصنوعی، به پای خود شلیک کرده‌ایم یا خیر. مطمئناً، می‌توانیم با کمال تعجب بگوییم که باید در حوزه نمادهای هوش مصنوعی دوباره راه‌اندازی کنیم، اما این ممکن است بسیار سخت‌تر از آن چیزی باشد که به نظر می‌رسد. آنهایی که زمانی در خط مقدم نمادهای هوش مصنوعی قرار داشتند ممکن است دیگر در دسترس نباشند یا ممکن است متوجه شوند که راه اندازی مجدد کار سختی است و ما در واقع به جای اینکه کاملاً در برزخ منتظر بمانیم، عقب افتاده ایم.
در واقع، برخی از حامیان سرسخت نمادهای هوش مصنوعی استدلال می‌کنند که نمادهای فرعی هوش مصنوعی قطعاً به یک مانع بزرگ برخورد خواهند کرد. نمادهای هوش مصنوعی تنها وسیله کافی برای عبور از این مانع خواهد بود. با این حال، اگر نمادهای هوش مصنوعی در تمام این مدت مورد ضرب و شتم قرار گرفته باشند و به طرز فجیعی با آنها برخورد شود، شانس نمادهای هوش مصنوعی که بتوانند به سرعت به سمت نجات حرکت کنند، به شدت مختل خواهد شد. قرار دادن تمام تخم مرغ های خود در سبد اشتباه می تواند عواقب نامطلوبی داشته باشد.
شما افراد زیادی را در اردوگاه نمادین هوش مصنوعی نمی یابید که از زیر نمادهای هوش مصنوعی بخواهند شهر را ترک کنند.
من این را ذکر می کنم زیرا ممکن است به طور طبیعی فرض کنید که آنچه برای غاز خوب است برای غاز نیز خوب است. وقتی نمادهای فرعی هوش مصنوعی تصمیم می‌گیرند تا نمادهای فرعی هوش مصنوعی را مطرح کنند و به طور همزمان نمادهای هوش مصنوعی را پایین بیاورند، تمایلی تقریباً غیرقابل مقاومت است که اردوگاه نمادهای هوش مصنوعی درباره نمادها صحبت کند و خانواده نمادهای فرعی هوش مصنوعی را زیر پا بگذارد. چیز زیادی از آن در اطراف وجود ندارد. نکته قابل توجه این است، به ویژه در مقایسه با ضرباتی که توسط برخی در اردوگاه نمادهای فرعی هوش مصنوعی بر سر و حرفه پیروان نمادهای هوش مصنوعی انجام می شود.
در این ترکیب ضرب المثل میانه یا ماشاپ می آید که به عنوان هوش مصنوعی ارو نمادین یا به سادگی هوش مصنوعی ترکیبی نامیده می شود.
معامله اینجاست.
ما می‌توانیم هر دو گاوباز را تشویق کنیم که در همین شهر زندگی کنند و احتمالاً حتی آنها را وادار کنیم تا با هم کار کنند. لزومی ندارد که آنها در دو طرف کاملاً جدا شده از چشم انداز سرزمینی باشند. آنها نیازی به نگاه محتاطانه به یکدیگر ندارند و با نگرانی هفت تیر قابل اعتماد خود را آماده می کنند. درعوض، آنها می توانند (منع از بهشت) متقابلاً به یکدیگر احترام بگذارند و سعی کنند برای دستیابی به هوش مصنوعی یا AGI حساس با هم هماهنگ شوند.
هنگامی که اردوگاه نمادهای فرعی هوش مصنوعی و اردوگاه نمادین هوش مصنوعی را گرد هم می آورید، ترکیبی برای خود به دست می آورید که به طور مشترک نمادین و نمادین است یا به همان اندازه منصفانه به طور مشترک نمادین و فرعی است. ساده‌ترین عبارت این است که این هوش مصنوعی نمادین عصبی نامیده شود، یعنی ترکیبی از زیربنای شبکه عصبی مصنوعی (ANN) در Deep Learning در ارتباط با هوش مصنوعی نمادین. اما از آنجایی که سمبلیک عصبی مانند یک مفهوم بلند یا باطنی به نظر می رسد، گفتن هوش مصنوعی ترکیبی ساده تر است.
مبادا فکر کنید که این یک راه حل مناسب و دوستانه به نظر می رسد، بدانید که به ندرت در زندگی یک ناهار رایگان وجود دارد. نمادهای فرعی هوش مصنوعی وجود دارد که رویکرد هوش مصنوعی عصبی نمادین یا ترکیبی را تقبیح می کند. برخی فریاد می زنند که وزن ده تنی را به نمادهای فرعی هوش مصنوعی متصل می کنید که پیشرفت را کند می کند. شما یک بار دیگر منابع را از خلوص نمادهای فرعی هوش مصنوعی تخلیه می کنید.
ادامه دارد و ادامه دارد.
برخی استدلال می کنند که ما باید به دنبال هوش مصنوعی عصبی- نمادین یا ترکیبی باشیم، در غیر این صورت عرصه نمادین هوش مصنوعی در حال رها شدن است و همچنان به عنوان ناشایست محکوم می شود. با پیوستن به نمادهای فرعی هوش مصنوعی و ML/DL که در حال حاضر اعلام شده است، نمادها همچنان مرتبط بوده و در بازی باقی خواهند ماند. این بیمه نامه ما زیربنای پیگیری هوش مصنوعی است. ببینید، اگر اردوگاه نمادهای فرعی هوش مصنوعی ما را به هوش مصنوعی یا AGI حساس نرساند، نمادهای هوش مصنوعی همچنان پابرجا خواهند بود و آماده برای نجات روز هستند.
به عنوان یک کنار، برخی پنهانی زمزمه می کنند که این شبیه بازگشت جدی است.
به هر شکلی که بخواهید وضعیت را توصیف کنید، به نظر می رسد تصویر بزرگتر این است که آیا ما حاضریم در این زمان یک مسیر خاص را انتخاب کنیم و فقط به آن مسیر متعهد شویم و همه راه های دیگر را رها کنیم. این یک حرکت جسورانه است. به جرات می‌توانم بگویم که یک حرکت مخاطره‌آمیز از این نظر است که اگر هوش مصنوعی برای جامعه حیاتی باشد، می‌توانیم به جامعه صدمه بزنیم و خودمان را درگیر هوش مصنوعی باشیم که به محدودیت‌های کمتری رسیده است (البته، وجود دارد). بحثی است در مورد اینکه آیا ما حتی باید سعی کنیم به هوش مصنوعی یا AGI حساس دست پیدا کنیم، بحث من را در پیوند اینجا ببینید ).
به طور کلی، من تمایل دارم با احساسات بیان شده در مقاله ذکر شده قبلی در Alt Intelligence موافق باشم: «بیایید همه ما زمینه‌ای را تشویق کنیم که به اندازه کافی ذهن باز دارد تا در جهت‌های مختلف کار کند، بدون اینکه زودتر از موعد ایده‌هایی را که اتفاقاً هنوز به طور کامل انجام نشده‌اند رد کنیم. توسعه یافته. شاید بهترین راه برای هوش مصنوعی (عمومی) از طریق هوش جایگزین نباشد.
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم می‌نشیند. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی فراوان در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد کاربرد هوش مصنوعی عصبی-سمبلیک یا هوش مصنوعی ترکیبی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، لینک اینجا را ببینید .
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطوح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی خودروهایی هستند که هوش مصنوعی خودرو را به طور کامل رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در این لینک اینجا ببینید )، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد، معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. به اشتراک گذاری وظیفه رانندگی به عنوان نیمه مستقل توصیف می شود و معمولاً شامل انواع افزودنی های خودکار است که به عنوان ADAS (سیستم های کمک راننده پیشرفته) نامیده می شود.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد و ما هنوز حتی نمی دانیم که آیا رسیدن به این امر امکان پذیر است یا نه چقدر طول می کشد تا به آنجا برسیم.
در همین حال، تلاش‌های سطح 4 به تدریج تلاش می‌کنند تا با انجام آزمایش‌های جاده‌ای عمومی بسیار محدود و انتخابی، کشش را به دست آورند، اگرچه در مورد اینکه آیا این آزمایش باید فی نفسه مجاز باشد (همه ما در یک آزمایش خوکچه هندی زندگی یا مرگ هستیم) اختلاف نظر وجود دارد. برخی مدعی هستند که در بزرگراه ها و معابر ما اتفاق می افتد، پوشش من را در این لینک اینجا ببینید ).
از آنجایی که خودروهای نیمه خودران به یک راننده انسانی نیاز دارند، استفاده از آن نوع خودروها تفاوت قابل توجهی با رانندگی با وسایل نقلیه معمولی نخواهد داشت، بنابراین به خودی خود چیز جدیدی برای پرداختن به آنها در این موضوع وجود ندارد (البته، همانطور که خواهید دید در یک لحظه، نکات بعدی به طور کلی قابل اجرا هستند).
برای خودروهای نیمه خودران، مهم است که عموم مردم باید در مورد یک جنبه آزاردهنده که اخیراً به وجود آمده است، هشدار داده شود، یعنی علیرغم آن دسته از رانندگان انسانی که مدام ویدیوهایی از خوابیدن خود بر روی فرمان خودروهای سطح 2 یا 3 منتشر می کنند. ، همه ما باید از گمراه شدن در این باور که راننده می تواند در حین رانندگی با خودروی نیمه خودران توجه او را از کار رانندگی دور کند اجتناب کنیم.
شما مسئول اقدامات رانندگی وسیله نقلیه هستید، صرف نظر از اینکه چه مقدار اتوماسیون ممکن است در سطح 2 یا سطح 3 پرتاب شود.
اتومبیل های خودران و آن هوش مصنوعی هیبریدی
برای وسایل نقلیه خودران واقعی سطح 4 و سطح 5، راننده انسانی در کار رانندگی درگیر نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یکی از جنبه هایی که باید فوراً مورد بحث قرار گیرد مستلزم این واقعیت است که هوش مصنوعی درگیر در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً نمی تواند به همان شیوه ای که انسان ها می توانند استدلال کند.
چرا این تاکید بیشتر در مورد حساس نبودن هوش مصنوعی است؟
زیرا می‌خواهم تأکید کنم که هنگام بحث درباره نقش سیستم رانندگی هوش مصنوعی، ویژگی‌های انسانی را به هوش مصنوعی نسبت نمی‌دهم. لطفا توجه داشته باشید که این روزها یک گرایش مداوم و خطرناک برای انسان سازی هوش مصنوعی وجود دارد. در اصل، با وجود این واقعیت غیرقابل انکار و غیرقابل بحث که هنوز چنین هوش مصنوعی وجود ندارد، مردم احساساتی شبیه به انسان را به هوش مصنوعی امروزی نسبت می دهند.
با این شفاف سازی، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی به طور بومی به نوعی در مورد جنبه های رانندگی "دانست". رانندگی و هر چیزی که مستلزم آن است باید به عنوان بخشی از سخت افزار و نرم افزار ماشین خودران برنامه ریزی شود.
بیایید به جنبه های بی شماری که در مورد این موضوع بازی می کنند شیرجه بزنیم.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این، هر زمان که گفته می شود یک سیستم رانندگی هوش مصنوعی کار خاصی را انجام نمی دهد، می تواند بعداً توسط توسعه دهندگانی که در واقع کامپیوتر را برای انجام آن کار برنامه ریزی می کنند، پیشی گیرد. گام به گام، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و توسعه هستند. محدودیت موجود امروزی ممکن است دیگر در تکرار یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
ما با تمجید از استفاده از ML/DL در حوزه تولید خودروهای خودران مبتنی بر هوش مصنوعی شروع خواهیم کرد. چندین جنبه کلیدی خودروهای خودران در نتیجه استفاده از تکنیک‌ها و فناوری‌های نمادین فرعی هوش مصنوعی که یادگیری ماشین و یادگیری عمیق را در بر می‌گیرد، به ثمر نشسته است. برای مثال، نیاز اصلی شناسایی و تجزیه و تحلیل صحنه رانندگی که یک خودروی خودران مبتنی بر هوش مصنوعی را احاطه کرده است را در نظر بگیرید.
شما بدون شک ویدیوها یا تصاویری از خودروهای خودران را دیده اید که حسگرهای بی شماری را روی خودروی خودران نصب کرده اند. این کار اغلب در پشت بام ماشین های خودران انجام می شود. دستگاه‌های حسگر مانند دوربین‌های ویدئویی، واحدهای LIDAR، واحدهای رادار، آشکارسازهای اولتراسونیک و موارد مشابه معمولاً روی یک قفسه پشت بام قرار می‌گیرند یا احتمالاً به بالای خودرو یا کناره‌های خودرو متصل می‌شوند. مجموعه حسگرها برای جمع‌آوری الکترونیکی داده‌هایی در نظر گرفته شده است که می‌توان از آنها برای کشف آنچه در صحنه رانندگی وجود دارد استفاده کرد.
حسگرها داده‌ها را جمع‌آوری می‌کنند و داده‌های دیجیتالی شده را به رایانه‌های داخلی می‌دهند. این رایانه ها می توانند ترکیبی از پردازنده های محاسباتی همه منظوره و پردازنده های تخصصی باشند که به طور خاص برای تجزیه و تحلیل داده های حسی ابداع شده اند. به طور کلی، بیشتر تحلیل‌های محاسباتی داده‌های حسی توسط ML/DL انجام می‌شود که برای این منظور ساخته شده است و روی پلت‌فرم‌های محاسباتی داخل خودرو اجرا می‌شود. برای توضیحات دقیق من در مورد نحوه کارکرد این کار، فقط برای نام بردن چند مورد، پیوند اینجا و پیوند اینجا را ببینید.
ML/DL از نظر محاسباتی سعی می‌کند الگوهایی را در داده‌ها بیابد، مانند مکان جاده، مکان عابران پیاده، مکان‌های دیگر خودروهای مجاور و غیره. همه اینها برای اینکه بتوانیم ماشین خودران را پیش ببریم، بسیار مهم است. بدون ML/DL که تجزیه و تحلیل صحنه رانندگی را انجام دهد، خودروی خودران اساساً نسبت به آنچه در اطراف وسیله نقلیه خودران وجود دارد کور خواهد بود.
به طور خلاصه، می‌توانید به راحتی این موضوع را مطرح کنید که استفاده از ML/DL برای ظهور خودروهای خودران مبتنی بر هوش مصنوعی ضروری است. این به نوبه خود می تواند به عنوان یک داستان موفقیت برای رویکرد نمادهای فرعی هوش مصنوعی مطرح شود.
اما برخی سردرگمی‌ها وجود دارد که به نوعی تمام جنبه‌های هوش مصنوعی در مورد خودرانی شاید چیزی جز ML/DL نباشد. این مورد نیست. بسیاری از عناصر حیاتی دیگر پشته خودران هوش مصنوعی از انواع تکنیک ها و فناوری های هوش مصنوعی دیگر استفاده می کنند. این که آیا مایلید آن عناصر دیگر هوش مصنوعی را نمادین بنامید یا خیر، ممکن است بحث شود، اگرچه اشاره به آن عناصر دیگر به عنوان نمادین فرعی تقریباً قابل اجرا نخواهد بود.
بیایید جنبه های دیگر یک سیستم رانندگی هوش مصنوعی را بررسی کنیم.
هنگامی که تجزیه و تحلیل محاسباتی صحنه رانندگی انجام شد، سایر بخش‌های قابلیت خودرانی هوش مصنوعی باید بفهمند که چه اقدامات رانندگی باید انجام شود. معمولاً یک مدل مجازی به صورت محاسباتی نگهداری می شود که صحنه رانندگی را نشان می دهد. هوش مصنوعی به دنبال برنامه ریزی حرکت های بعدی خودروی خودران است. علاوه بر این، هوش مصنوعی باید دستوراتی را به کنترل های رانندگی بفرستد، همانطور که هر اقدام بعدی که هوش مصنوعی تشخیص داده است باید توسط ماشین خودران انجام شود.
در مجموع، شما می‌توانید به طور منطقی ادعا کنید که یک خودروی خودران مبتنی بر هوش مصنوعی امروزی شامل اجزای مرتبط با نمادهای فرعی هوش مصنوعی و همچنین شامل اجزای نمادین محور هوش مصنوعی است. همه این اجزا باید با هماهنگی کار کنند. منصفانه است که بگوییم یک ماشین خودران که به خوبی طراحی شده است، به طور موثر یک سیستم هوش مصنوعی عصبی نمادین یا نمونه ای از هوش مصنوعی هیبریدی است.
اکنون به دو تفنگچی روبه‌روی یکدیگر باز می‌گردیم. به یاد بیاورید که برخی موضع گیری های بحث برانگیز دارند مبنی بر اینکه رویکرد نمادین فرعی هوش مصنوعی تنها گاوی است که متعلق به شهر هوش مصنوعی است. ما می‌توانیم در مورد خودروهای خودران مبتنی بر هوش مصنوعی سؤالاتی در این مورد بپرسیم.
آیا می‌توانیم بخش‌هایی از پشته هوش مصنوعی را که نمادهای فرعی هوش مصنوعی نیستند صرف نظر کنیم؟
در دنیای امروز، خیر، زیرا این امر تقریباً بخش قابل توجهی از سیستم رانندگی هوش مصنوعی را از بین می برد و خودروی خودران نمی تواند به اندازه کافی در جاده کار کند.
آیا می‌توانیم به طور انحصاری از نمادهای فرعی هوش مصنوعی استفاده کنیم و یک ماشین خودران بدون استفاده از هیچ نوع هوش مصنوعی دیگری طراحی کنیم؟
به طور کلی، به نظر می رسد که پاسخ منفی باشد.
برخی تصور می کنند که ما در نهایت می توانیم این کار را انجام دهیم. استدلال آنها به شرح زیر است. ما می دانیم که انسان ها ماشین سواری می کنند. ما می دانیم که انسان ها از مغز و ذهن خود برای انجام عمل رانندگی استفاده می کنند. اگر می گویید که رویکرد نمادهای فرعی هوش مصنوعی معادل آن چیزی است که در مغز و ذهن انسان اتفاق می افتد یا روزی به آن خواهد رسید، این نشان می دهد که تنها هوش مصنوعی مورد نیاز برای رانندگی یک ماشین در واقع زیر نمادهای هوش مصنوعی است. این به نظر می رسد تا حد آهنین. شاید اینطور باشد، شاید هم نه. حفره‌های مختلفی در این منطق وجود دارد که من در جای دیگری در ستون‌هایم به آن پرداختم.
نتیجه
آیا کسی باید از شهر خارج شود؟
این ایده که بخشی از مجموعه تکنیک‌ها و فناوری‌های هوش مصنوعی مهم‌تر از دیگری است، یک بحث مستمر و تا حدودی مستدل است. به نظر می‌رسد یک افزایش نگران‌کننده، ادعای فزاینده‌ای باشد که تنها یک بخش، رویکرد «مناسب» به تمام هوش مصنوعی است، که به طور ضمنی یا صریح می‌خواهد که سایر رویکردهای هوش مصنوعی باید به نفع آن بخش افتخارآمیز کنار گذاشته شوند.
در رمان رومئو و ژولیت اثر ویلیام شکسپیر یک جمله قابل توجه وجود دارد که می گوید: "دو خانواده، هر دو از نظر منزلت و منزلت یکسان." شاید بتوانیم از این خط گویا این درک را به دست آوریم که کرامت باید هم به نمادهای فرعی هوش مصنوعی و هم به نمادهای هوش مصنوعی با شور و حرارت یکسان داده شود.
نگرانی فزاینده این است که اگر این مشاجره به جوشیدن و تخمیر ادامه دهد، ممکن است شاهد تکه تکه شدن و تکه تکه شدن میدان هوش مصنوعی باشیم. می تواند زمان را به عقب برگرداند یا حداقل پیشرفت های هوش مصنوعی را مخدوش کند. ممکن است خط دیگری از رومئو و ژولیت را به خاطر بیاورید که به ذهنتان خطور می کند، این که این مشاجره می تواند "طاعون را در هر دو خانه شما بیاورد!"
نظر نهایی در حال حاضر و یک پیچ کوچک در این داستان.
فرض کنید که مفهوم ضمنی تقسیم هوش مصنوعی به دو گروه متشکل از نمادهای فرعی و نمادین، خود یک انشعاب گمراه کننده است (یعنی یک دوگانگی نادرست). ممکن است برای دستیابی به هوش مصنوعی یا AGI حساس، باید مفروضات موجود خود را بازبینی و اصلاح کنیم و دنیای هوش مصنوعی را متشکل از اصطلاحات کاملاً متفاوت ببینیم. از این نظر، نام «هوش مصنوعی ترکیبی» می‌تواند مناسب‌ترین نام باشد و مجموعه‌ای از راه‌های هوش مصنوعی را در بر بگیرد که شاید حتی فکرش را هم نمی‌کردیم.
بیایید در این مورد آخرین کلمه را به شکسپیر بگوییم: «اسم چیست؟ چیزی که با هر کلمه دیگری گل رز می نامیم بوی شیرینی می دهد.»

source

توسط bookheart

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.