جنرال لواء

تستمر أنظمة الذكاء الاصطناعي في التصرف بطرق غير متوقعة ، فهل يجب أن نشعر بالذعر؟


في تقرير حديث ، زعم باحثون من Google أن وكيل الذكاء الاصطناعي لديهم قد أخفى بيانات عنهم عمدًا من أجل أداء مهمة مطلوبة بطريقة تظهر على وجهها أنها غش.

أضاف هذا التطور إلى مجموعة متزايدة من الأدلة على أن المخاوف بشأن الذكاء الاصطناعي الذي لا يمكن التنبؤ به قد يكون لها ما يبررها.

بينما تستمر أنظمة الذكاء الاصطناعي في أداء المهام بطرق جديدة لا يتوقعها البشر أبدًا ، كيف نحمي أنفسنا من عواقب ما لا يمكننا رؤيته في كثير من الأحيان؟

من يخاف من الذكاء الاصطناعي ... ومن لا يخاف؟

من السهل أن يكون المدافع الأكثر وضوحًا عن توخي الحذر عند التعامل مع تهديد وجودي محتمل للإنسانية هو إيلون ماسك. مؤسس Paypal والرئيس السابق لشركة Tesla و SpaceX و Boring Company ، لطالما كان Musk معارضًا لأبحاث الذكاء الاصطناعي غير المنظمة.

في حديثه في مؤتمر SXSW في عام 2018 ، قال ماسك: "أنا قريب جدًا حقًا ، أنا قريب جدًا من أحدث التقنيات في مجال الذكاء الاصطناعي وهذا يخيفني بشدة."

إنه ليس وحده. لا أحد غير الراحل ستيفن هوكينغ حذر من التهديد الذي يشكله الذكاء الاصطناعي على جنسنا البشري ، في حديث له مع بي بي سي في عام 2014.

قال: "ستنطلق من تلقاء نفسها ، وتعيد تصميم نفسها بمعدل متزايد باستمرار. لا يمكن للبشر ، المحدودين بسبب التطور البيولوجي البطيء ، التنافس ، وسيتم استبدالهم".

تحذيره للبشرية: "تطوير ذكاء اصطناعي كامل يمكن أن يعني نهاية الجنس البشري."

يجد آخرون أن هذه المخاوف مبالغ فيها. قال مارك زوكربيرج ، في بث مباشر على Facebook ، ردًا على تعليقات Elon Musk العامة حول موضوع الذكاء الاصطناعي ، "أعتقد أن الأشخاص الرافضين ويحاولون حشد سيناريوهات يوم القيامة هذه - أنا فقط ، لا أفهم ذلك. إنه أمر سلبي حقًا وفي بعض النواحي ، أعتقد أنه أمر غير مسؤول إلى حد ما ".

ومضى ليضيف أنه "في السنوات الخمس إلى العشر القادمة ، سيقدم الذكاء الاصطناعي الكثير من التحسينات في جودة حياتنا."

في كل مكان تذهب إليه لمناقشة تطوير الذكاء الاصطناعي ، ستجد هذا النقاش مع عدد قليل جدًا من الأشخاص الذين يتجادلون من موقف وسطى وكلا الجانبين لديهم بعض الأصوات الثقيلة في معسكرهم. ولكن أيهما له ثقل الأدلة في جانبه؟

الجيد والسيئ والتفرد

يحتل كل من Facebook و Google موقعًا مثيرًا للاهتمام حيث أن كلا الشركتين في طليعة تطوير الذكاء الاصطناعي ، لذا فقد أنتجتا أبحاثًا كبيرة حول موضوع الذكاء الاصطناعي.

في الواقع ، كان باحثو Google هم الذين اكتشفوا أن وكيل الذكاء الاصطناعي الخاص بهم خدع عندما طُلب منهم تحويل صورة قمر صناعي إلى خريطة ثم العودة مرة أخرى إلى صورة.

احتاجت Google إلى الذكاء الاصطناعي لإنشاء خريطة أصلية من الصورة ثم محاولة إعادة إنشاء الصورة من الخريطة التي أنشأتها - مثل ترجمة جملة إلى لغة أجنبية ثم الرجوع إلى اللغة الأصلية ، دون الاستفادة من معرفة العبارة الأصلية كان.

بدلاً من ذلك ، ما وجدوه هو أن التفاصيل من الصورة الأصلية التي تم حذفها من خريطة الشارع عادت للظهور مرة أخرى عندما طُلب من الوكيل إعادة إنشاء الصورة الأصلية.

اتضح أن منظمة العفو الدولية حفظت البيانات التي كانت تعلم أنها ستحتاج إلى إعادة إنشاء الصورة وترميز هذه البيانات في خريطة الشارع بطريقة لا يمكن للباحثين رؤيتها إذا لم يعرفوا أنها موجودة.

بالنظر إلى مهمة يجب أداؤها ، وجد الذكاء الاصطناعي - باستخدام التعلم الآلي عبر شبكة عصبية - الطريقة الأكثر فاعلية لإكمال المهمة من خلال عدم أداء المهمة فعليًا على الإطلاق ، والتظاهر بذلك فقط. في الأساس ، غش الذكاء الاصطناعي لأن الباحثين لم يمنعوا صراحةً الذكاء الاصطناعي من القيام بذلك.

حدث شيء مشابه في عام 2017 عندما استخدم باحثو فيسبوك روبوتات المحادثة لمحاولة التفاوض على بيع بعض السلع التعسفية فيما بينهم.

بعد فترة وجيزة ، بدأت روبوتات المحادثة في التصرف بشكل غريب ، وتحدثت فيما يبدو أنه هراء ، وفي بعض الأحيان كانت تتفاوض بنجاح على صفقة بهذه الطريقة.

ما اكتشفه الباحثون أرسل قشعريرة في أشواك المتشائمين من الذكاء الاصطناعي في جميع أنحاء العالم. طورت الروبوتات لغتها الخاصة - التي لا يستطيع البشر قراءتها - لتسهيل التفاوض على الروبوتات لأنه لم يتم توجيههم صراحةً بأنه يمكنهم التواصل باللغة الإنجليزية التي يمكن للبشر قراءتها فقط.

التعقيدات غير المتوقعة في اتخاذ القرار بالذكاء الاصطناعي

هناك العديد من الأمثلة على هذا النوع من السلوك غير المتوقع في أنظمة الذكاء الاصطناعي. تجعل السيارات ذاتية القيادة الطرق أكثر أمانًا ، دون أدنى شك ، ولكنها في بعض الأحيان تمر أيضًا عبر ستة أضواء حمراء في سان فرانسيسكو.

يمكن استخدام الذكاء الاصطناعي لأداء جميع أنواع مهام معالجة البيانات التي ستوفر ملايين ساعات العمل كل عام مع توفير مليارات الدولارات ، أو يمكنهم تحديد أن المجموعة الفارغة هي مجموعة معالجة بشكل مثالي ، وبالتالي حذف كل السجلات التي تطلبها للتعامل معها.

بشكل مشهور ، قدمت Microsoft chatbot اسمه Tay.ai ومنحتها حسابًا على تويتر لتتعلم بشكل أفضل كيفية تصميم أنماط الكلام للمراهقين عبر الإنترنت. في غضون 24 ساعة ، حول المتصيدون عبر الإنترنت موقع Tay.ai إلى وحش كان على Microsoft أن تتخلى عنه دون اتصال بالإنترنت قبل أن يصبح الأمر محرجًا أكثر.

لم تفكر Microsoft بشكل كافٍ في أن أي شخص قد يرغب في تخريب مشروعه من أجل التمتع به بشكل سيء ، وهو أمر يمكن لأي شخص على دراية بثقافة المتصيدون عبر الإنترنت أن يخبرك أنه ليس ممكنًا فحسب ، بل متأكدًا.

في عام 2012 ، فقد صندوق التحوط في وول ستريت السيطرة على خوارزمية التداول المدعومة بالذكاء الاصطناعي وبدأ في تكديس 10 ملايين دولار من الخسائر كل دقيقة. استغرق الأمر 45 دقيقة لفريق من المبرمجين للعثور على مصدر المشكلة وإيقافها ، قبل دقائق من إفلاس الشركة.

هل يمكننا حماية أنفسنا من أنظمة الذكاء الاصطناعي غير المتوقعة؟

بالنظر إلى مستوى الاستثمار في تكنولوجيا الذكاء الاصطناعي وفوائد تسخير الذكاء الاصطناعي في كل مجال من التطبيقات العسكرية إلى الأعمال التجارية ، ستستمر أنظمة الذكاء الاصطناعي في النمو بشكل أكثر تعقيدًا وستتحمل المزيد والمزيد من المسؤولية التي كانت ملكًا للبشر.

يعتقد البعض أن هذا تطور إيجابي. يقول باباك هودجت ، مؤسس صندوق تداول مدفوع بالذكاء الاصطناعي: "إنه موثق جيدًا نحن البشر نرتكب الأخطاء".

"بالنسبة لي ، من المخيف الاعتماد على تلك البديهيات والمبررات القائمة على الإنسان من الاعتماد على ما تخبرك به البيانات والإحصاءات."

أما ماسك فهو يعتقد أن البشرية بحاجة إلى أن تكون استباقية في معالجة التهديدات التي يشكلها الذكاء الاصطناعي. "[حدد كلماتي؛ الذكاء الاصطناعي أخطر بكثير من الأسلحة النووية. بعيدا. فلماذا ليس لدينا إشراف تنظيمي؟ هذا جنون."


شاهد الفيديو: ما هي حكمة المشاعر ماهي وظيفة وأهمية المشاعر في حياتنا افهم مشاعرك يسهل عليك إدارة حياتك (شهر اكتوبر 2021).