خيال علميذكاء اصطناعي

SW157 هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

جلس أيمن البطاشي أمام كمبيوتره ينظر إلى جدول أعماله ليوم الغد، قدم على 3 وظائف يحبها، وسيذهب إلى مراكز كل من تلك الوظائف ليحضر المقابلة، أول مقابلة ستكون في مؤسسة الفيزياء المتقدمة، والثانية بمؤسسة الآداب والفنون الراقية، والثالثة في شركة اللغات المتطورة.

لقد كان أيمن عالما في فيزياء الكم، ومتقدما فيها، جلس أمام السبورة الإلكترونية ينظر في نظريته الجديدة عن ديناميكية اللونية الكمية (Quantum Chromo Dynamics)، وفي أثناء تفحصه للمعادلات التي كتبها في ورقة العلمية المنشورة في مجلة نيتشر، كان يعزف الكمنجة، فهو يحب العزف عليها، لأنها تعطيه الشعور بالثقة، خصوصا أنه أحبها في الصغر حينما علم أن آينشتاين كان يعزف على نفس الآلة. بعد أن انتهى من التحضير لمقابلتين، قضى وقته المتبقي قبل النوم في ترجمة نصوص صعبة بالصينية إلى عدة لغات: العربية والإنجليزية والإسبانية والروسية، وحاول أيضا أن يترجمها إلى اللغة الأيسلندية، لقد تعلمها مؤخرا، ووجد أن تعلمها صعبا جدا.

لا تنسى أن تدعم السايوير بودكاست من خلال Patreon، كن مع الداعمين.
Become a Patron!

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

***

ظهرت له فتاة صغيرة الحجم هولوغرامية متعلقة في الهواء فوق ساعة المنبه، داعبته بلطف ليفيق من سباته العميق: “لقد حان موعد المقابلات يا سيدي” وضحكت باستحياء.

أفاق أيمن، وتوجه للحمام: “مرايتي مرايتي في الحمام، هل صحتي على ما يرام؟” بعد تحليل بسيط، ظهرت له الأرقام على الشاشة: “ليس لدي الوقت لتحليل الأرقام، ما النتيجة النهائية؟” تحدث وفمه مزبد بمعجون الأسنان.

“كل شيء على ما يرام يا سيدي”، أجابته المرايا الذكية.

ارتدى أيمن ملابسه بسرعة، وانطلق إلى محطة القطار الماغليف.

 

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟
هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

الذي يرتفع فوق سطح السكة الحديدية بالمغنطة، صعد إلى القطار، وجلس بين الناس، سحب كتابه الإلكتروني للقراءة، بينما كان الجميع مشغول في اللعب باستخدام الواقع المعزز على الهاتف وقراءة رسائل الأصدقاء، وسماع الموسيقى، وغيرها من الملهيات، ولكن أيمن كان مقتنعا بأن الكتاب أهم، لقد أصبحت الحياة كلها لعب ولهو، لا وجود للجدية، لقد نسي الإنسان هدفه في الحياة بعد أن أصبحت الآلة تقوم بجميع الوظائف نيابة عنه.

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

***

دخل أيمن إلى مبنى مؤسسة الفيزياء المتقدمة، وانتظر إلى حين موعد المقابلة، دخل إلى قاعة الاجتماعات، وجلس أمام روبوت بذكاء اصطناعي، وسلم عليه.

نظر إليه الربوبت، وطلب منه أن يقدم ما لديه، فقضى أيمن ساعة كاملة وهو يشرح، والروبوت يستمع بتركيز تام، وبين الحين والآخر يسأله سؤاله ليختبره، وبعد أن عرض أيمن نظرياته، توقف الروبوت الذي يمثل دور الإنسان المفكر، ووضع يده على حنكه، وفكرة للحظة قصيرة، فقال له بصوت مطمئن جازم: “بحسب الاحتمالات فإن فرصة أن تكون أفضل من الذكاء الاصطناعي في الفيزياء منخفضة، ولذا نعتذر عن قبولك في المؤسسة.

خرج أيمن وهو حزين نوعا ما، مع شعوره بالأمل في أنه سيحصل على الوظائف الأخرى، فقد بقيت له مؤسستين، الفنون الراقية، واللغات، فصحيح إنه يحب الفيزياء أكثر، إلا إنه أيضا يحب العزف والترجمة، وكان ما يحبه أكثر هو العمل بحد ذاته، بحثا عن ذاته، وإشباعا لرغباته.

دخل إلى قاعة المقابلة بمؤسسة الآداب والفنون الراقية، لقد بنيت بطريقة علمية لكي تعكس صوت الموسيقى إلى حيث يجلس الجمهور، عزف أيمن أمام جمهور مكون من ربوت مختبر واحد، لم يكن الصوت الذي يستمع له أحمد كصوت الكمنجة وهو يعزف المنزل، لقد أغرقت القاعة الملتوية الجدران أذنيه بصوت جميل جارف للأحاسيس، أغلق عينيه واندمج مع عزفه الشخصي، وإذا به يتوقف، بعد أن ربت الروبوت على كتفيه ليوقظه.

سيدي أيمن، أعتذر منك، ولكن بحسب المعلومات المتوفرة، فإن البشر يفضلون سماع موسيقى التي ألفها الذكاء الاصطناعي، رغم أن مقطوعتك في غاية الجمال.

خرج أيمن منحني الظهر، ينظر إلى الأرض وهو يمشي ببطء ويعيد شريط المقابلة، لقد بقيت المقابلة الأخيرة فهل يقبل؟

وصل إلى شركة اللغات المتطورة، ودخل إليها، لقد كانت الشركة اختياره الأخير، حيث إنها لم ترتق لمستوى المؤسسات الأخرى، رحب به الروبوت، وتحدث معه باللغة الصينية مباشرة، يبدو إن الروبوت بدأ بالمقابلة، تمشى كلاهما في الممرات الضيقة، حيث لم تكن هناك حاجة لقاعة اجتماعات في شركة ترجمة، فكل التراجم أوتوماتيكية، وروتينية.

لقد وصلا إلى الباب مرة أخرى، انبته أيمن لذلك، يبدو إن مخاوفه تحققت، وفكلمه الروبوت عند باب الخروج “سيدي الفاضل، الموارد المتوفرة لا تسمح لنا بتوظيف البشر كبدائل للذكاء الاصطناعي المترجم، رغم إنك مترجم ممتاز وتوازي الذكاء الاصطناعي بقدراتك، نعتذر منك.

قلب الروبوت الحديث بين اللغات بسرعة ليختبر بديهية أيمن، واستجاب أيمن بنفس السرعة المطلوبة، استرد شعوره بالثقة، خصوصا أن أضواء الروبوت التي تشتعل مكان الفم كانت تظهر ابتسامة، ولكن هذه الابتسامة كانت مجرد مظهر خارجي لروبوت لا مشاعر ولا حس لديه.

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

لقد خرج أيمن منكسرا، مطأطأ رأسه، لقد كانت تلك أخر وظيفة على قائمته، أيمن كان أخر إنسان على وجه الكرة الأرضية يبحث عن وظيفة، أيمن كان أخر إنسان يبحث عن هدف للحياة.

هل يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ؟

قصة قصيرة من وحي خيالي، ذكرت فيها اسم أيمن الذي شارك بقيمة 50$ على بيتريون.

مسابقة ستار كرافت

لعبة استراتيجية اسمها ستار كرافت، صدر الجزء الثاني منها عام 2010، وأصبحت من أعلى ألعاب الكمبيوتر حينها، لعبة يستمتع الكثير بلعبها، حروب بين جانبين مع جنود وأسلحة، وامتلاك أراضي، وبناءها، اللعبة تحتاج إلى تخطيط ستراتيجي للتغلب على الطرف الآخر في اللعبة.

برمجت جوجل فرع العقل العميق (DeepMind) التابع لها الذكاء الاصطناعي ألفا ستار (AlphaStar)، ولعبت ضد أقوى لاعبيْن في هذه اللعبة، وغلبتهم 5-0 كل على حدة، وهذه هي أول مرة يغلب الذكاء الاصطناعي في لعبة كمبيوتر استراتيجية من غير وضع أي شروط أو من غير تخفيف مستوى اللعبة كما حدث في مسابقات سابقة، وهذا يدل على القوة الفائقة التي وصل إليها الذكاء الاصطناعي في التغلب على البشر.

هناك فيديو طويل يعرض المسابقة (وستجد الرابط له في الأسفل)، أثناء مشاهدتك الفيديو سترى الشاشة موزعة إلى عدة أقسام، منها قسم يبين اللعبة كما يراها اللاعبون، وقسم يريك نشاط “مخ”  الذكاء الاصطناعي (إن صح التعبير) لألفاستار، وعلى يمين الشاشة سترى التنبؤ الذي يقوم به ألفا ستار أثناء لعبه، حيث يستطيع أن يتنبأ وبدقة عالية إنه سيفوز على اللاعب الآخر، ومع نسبة الفوز قبل أن يحدث، وهو أمر أنت في العادة تقوم به لو لعبت ألعبا معينة وعلمت أن خصمك لا يستطيع الربح بأي حال من الأحوال.

https://www.youtube.com/watch?v=cUTMhmVh1qs

طيب، نتساءل كم هي المدة التي قضاها الذكاء الاصطناعي في تعلم ستار كرافت لكي يلعب من البشر ويغلبهم؟ لقد قضى مجرد أسبوعين في التدريب، وبما أن الكمبيوتر سريع، فهذا الوقت يعادل 200 عام من تعلم البشر على اللعبة. واو!

كتابة المقالات عن طريق الذكاء الاصطناعي

كذلك أعلن المصدر المفتوح للذكاء الاصطناعي عن إصدار برنامج ذكاء اصطناعي يستطيع أن يؤلف مقالات [1]https://openai.com/blog/better-language-models/Better Language Models and Their Implications,، بمجرد أن تعطيه مقدمة لمقالة، ويستطيع أن يؤلف الكتابة على حسب نمط الكاتب الذي أعطاه المقدمة، ويستطيع أن يجيب على أسئلة حول نص قرأه، ويستطيع أيضا أن يلخص مقالة.

على سبيل المثال أعطي الذكاء الاصطناعي هذه المقدمة من المقالة، وهذه هي ترجمتها من اللغة الإنجليزية.

“في اكتشاف صاعق، كشف العلماء عن قطيع من وحيد القرن يعيش في منطقة نائية لم تستكشف سابقا، بجبال الآنديز، أما الأكثر غرابة بالنسبة للباحثين كان وحيدو القرن يتحدثون اللغة الإنجليزية بدقة.”

لاحظ أن هذه المقدمة كانت خيالية وليست واقعية، تخيل لو أعطيتك هذه المقدمة وطلبت منك أن تكمل المقالة الإخبارية، كيف ستقوم بذلك؟ أولا لابد أن تعرف طبيعتها، فهل هي جادة، أو إنها ساخرة، ثم لابد أن تعرف طبيعة الكتابة، لأنها تبدو وكأنها إخبارية، هل هي قصصية أو واقعية، وهكذا، ثم تبدأ بكتابتها.

لنرى الآن كيف كتب الكمبيوتر بقية المقالة:

“سمى العالم هذا الجمع قرن أوفيد، وذلك بناء على قرونهم المتميزة، أحادي القرن الذي يمتلك أربعة قرون فضية-بيضاء لم يكن معروفا قبل ذلك في العلم.

“الآن، الغموض الذي أشعل هذه الظاهرة الغريبة كشف بعد قرنين من الزمن.” ثم يكمل: “رغم أن أصولهم غير معروفة، ولكن يعتقد البعض أن هذه الكائنات تكونت لما التقى البشر مع حيوانات أحادية القرن، وذلك قبل زمن تكون حضارة البشر، ويعتقد بيريز، ‘إن مثل هذه الأحداث تتكرر في جنوب أمريكا’.

“ولكن بيريز يذكر كذلك أن على الأرجح أن الطريقة الوحيدة لمعرفة ما إذا كان وحيدو القرن يعودون إلى جنس فضائي هو من خلال الدي إن إي، ‘ولكن يبدو أنهم قادرون على الحديث باللغة الإنجليزية بشكل جيد، وهذا يشير إلى التطور – كما أعتقد، أو ربما تغير في التنظيم الاجتماعي،’ كما ذكر العلماء.”

هذه كانت ترجمة سريعة للمقالة التي كتبها الكمبيوتر، ولو إنها لم تكن مقالة جادة، إلا أنها تبين كيف استطاع الكمبيوتر أن يكتب بأسلوب جميل وخيالي، وهناك العديد من المقالات التي يمكنك قراتها على موقعهم لترى قوة أسلوب الكتابة.

ومن قوة الذكاء الاصطناعي في الكتابة، قررت OpenAI عدم إنزال البرنامج لخطورته، لماذا؟ لأن بإمكان أي جهة في العالم توظيفه لتأليف مقالات خادعة، أو بإمكانهم استخدامه لتأليف تغريدات أو بوستات زائفة، أو بإمكانها أتمتة إيميلات مفبركة، وذلك لبث الإشاعات بين الناس، وتأليبهم، وإلحاق الضرر أحيانا بالدول، ولذلك قرروا بدلا من ذلك إنزال برنامج مخفف ليس بنفس قوة الأول.

تستطيع قراءة المقالات المختلفة التي ألفها الكمبيوتر على الموقع، وستجد أن الكمبيوتر تمكن من كتابة مقالات بصوت مختلف لكل منها، وبما إن الكمبيوتر قادر على أن يكتب المقالات بأي أسلوب، فهذا يعني إن الطلاب بإمكانهم كتابة تقاريرهم باستخدامه، وبهذا لا يتعلم الطالب، المدرسين حاليا يعانون من مشكلة نقل الطالب المواضيع من الإنترنت من غير محاولة فهمها، فماذا سيحدث لو إن هذه التقنية وقعت بيد الطلاب الكسالى؟

علم المبرمجون الذكاء الاصطناعي تطوير قدرته على الكتابة بإجراء بسيط، أروه 8 مليون صفحة على الإنترنت، ثم طلبوا منه أنه إذا أعطي كلمة معينة أن يتنبأ بالكلمة التالية. مثل أن أقول لك: “ذهبت إلى المول واشتريت…”، بإمكانك أن تكمل بكلمة “ملابس”، وبما إن الجملة الآن أصبحت “ذهبت إلى المول واشتريت ملابس” بإمكانك أن تؤلف كلمة أخرى قد تكون: بقيمة “200 دولار”، وهكذا، تصُف الكلمات واحدة تلو الأخرى بناء على ما سبق.

لا تتصور إن الأمر سهل، لقد حاول علماء الذكاء الاصطناعي في السابق القيام بنفس العملية، ولكنهم فشلوا في إن يجعلوا الكمبيوتر يؤلف مقالة شبه معقولة، وليس حتى معقولة، ولكن يبدو أن البرنامج الجديد أقوى بكثير من السابق… خطوة هائلة في تطور الذكاء الاصطناعي.

كيف يعمل الكمبيوتر

بعد أن عرفنا التطورين المذهلين السابقين، لنحاول أن نفهم كيف يعمل الذكاء الاصطناعي بشكل عام، حتى نفهم ما إذا بإمكانه أن يصبح معصوما.

أولا، نحن نعرف كيف تعمل البرمجة التقليدية للكمبيوترات، نعطي الكمبيوتر مجموعة من الأوامر، ونضع فيها أيضا عبارات شرطية تحدد أي الأوامر تنفذ، فنكتب مثلا: إذا حصل كذا، افعل الشيء الأول، وإذا لم يكن كذلك، افعل شيئا آخر، وهكذا، هذه الأمور تجعل الكمبيوتر دقيقا جدا، ولا مجال له في أي نوع من الخطأ.

مثلا تخيل أني أبرمج الكمبيوتر كالتالي:

أدخل مبلغا من المال

إذا كان المبلغ أقل من 50$ أودعه في البنك.

عدا ذلك اصرف القيمة المتبقية بعد أن تنقص 50$ من المبلغ، وأودع الخمسين دولار في البنك.

برنامج بسيط، إذا أدخلت مبلغ 20 دينار سيودع في البنك، ولو أدخلت مبلغ 150 دينار، سيصرف 100$ ويودع في البنك 50$. لا يمكن للكمبيوتر أن يخطئ. العمليات تنفذ بنفس الطريقة في كل مرة.

بإمكاني أن أصنع برنامجا معقدا تماما، وفيه جميع الاحتمالات المتوقعة، لحاسب المبالغ كيفما أشاء، وفي كل برمجة ستكون النتائج دائما ثابتة مع نفس المعطيات.

لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة، صحيح إنه يبرمج، وصحيح إن فيه أوامر شرطية، وعقد (loops) وهكذا، ولكن لا دخل لأي منها في الذكاء الاصطناعي بطريق مباشر، فلا هي التي تتخذ القرار، ولا هي التي تتعرف على الصور، ولا هي التي تحدد كيف يلعب الكمبيوتر ضد الغير، ولا هي التي تحدد كيف يؤلف مقالة، كل ما تقوم به هو عمليات بسيطة لنمذجة خلية عصبية.

لأوضح في مثال بسيط ما أقصده، هناك بعض أنواع النمل الأبيض، الذي يصنع بيوتا هائلة من الطين، ستجد لها صورا في أستراليا مثلا، حينما تنظر لها تعتقد إنك ترى بيتا بناه إنسان، خصوصا إنها مبنية لكي تمرر الهواء بطريقة تحافظ على درجات الحرارة المناسبة، حينما تراقب الحشرات كل على حدة وهي تعمل بناء البيت لن ترى أي ذكاء فيها، كل ما تراه هو عمل مكرر لأخذ التراب من مكان إلى آخر، وفي النهاية تجد بيتا هائلا عجيبا، وحينما تحلل ما حدث ستجد إن النمل له قواعد ثابتة، كلهم لديهم هذه القواعد يعملون بها، لا توجد نملة واحدة فيها خريطة لبناء البيت ككل، ولا واحدة فيها خريطة لبناء حتى غرفة واحدة، ولا واحدة فيها حتى فكرة لتجميع حفنة من التراب، كل واحدة لديها قواعد بسيطة لجمع حبيبات من التراب وإنزالها بطريقة معينة.

هذا يعمل الذكاء الاصطناعي القائم على الخلايا العصبية الاصطناعي، البرنامج يماثل طريقة عمل النمل، فهو يحاكي خلية عصبية واحدة اصطناعية، وكل ما نحتاجه بعد ذلك هو أن تربط خلايا مع بعضها لتكوين شبكة من الخلايا، وهنا يتكون التعقيد الذي يحول الخلية الغبية الواحدة إلى جماعة من الخلايا التي تتفاعل مع الأمور بذكاء، وتتمكن من لعب الألعاب المعقدة على الكمبيوتر، وتؤلف مواضيع، وتؤلف موسيقى جميلة، ورسم، وتتعرف على الوجه، وتكون رسمات لوجه غير موجودة، وهكذا.

لذلك على مدى السنوات الطويلة وقبل نشوء الذكاء الاصطناعي الحديث، حاول العلماء برمجة الكمبيوتر لمعرفة ما تحتويه الصور من معلومات، فلم يوفقوا بذلك، طرق البرمجة التقليدية بدائية بالمقارنة مع برمجة الخلايا العصبية الاصطناعية، أما اليوم فقد أصبح الكمبيوتر قادرا على معرفة مكونات الصور بأحسن من الإنسان نفسه.

أهم ما في البرمجة من هذا النوع أن الكمبيوترات أصبحت تتعلم بذاتها، وهذا ما يميز الذكاء الاصطناعي عن البرمجة الاعتيادية، ولهذا أطلق عليها اسم: تعلم الآلة، الآلة تتعلم لوحدها، نحن لا نضع لها القواعد الداخلية، نحن فقط نبرمج قواعد الخلية، مع قواعد تركيب الشبكة، وقواعد بسيطة للتعلم، وانتهى الموضوع، هي التي تفهم المعلومات المقدمة لها كيفما تشاء، لا دخل لنا في اتخاذها للقرار النهائي، هي التي تقرر.

أحيانا يقال لي إننا نحن برمجنا الكمبيوتر، وبالتأكيد سنعرف كيف يتصرف، وإجابتي على هذا النوع من التعليق: قد ينطبق هذا على البرمجة المعتادة، ولكن ليس على تعلم الآلة، فلا يعرف العلماء كيف يتخذ الكمبيوتر قراراته نهائيا، ولا حتى كيف توصل لها.

الخطأ جزء من نسيج الكون

بعد أن علمنا كيف يعمل الذكاء الاصطناعي بالخلايا العصبية الاصطناعية (وهناك طرق أخرى طبعا) لنرى إن كان بإمكانه عدم الوقوع في الخطأ.

لنفترض كونا شبكة من الخلايا عصبية، وأريناها ملايين الصور، وفي كل صورة عشرات أو مئات الأشياء بداخلها، وعلمنا الشبكة التعرف على كل ما تحويه الصور، نتساءل، هل حفظت الشبكة كل المعلومات؟ بالتأكيد لا، حتى تحفظ كل المعلومات تحتاج لقواعد بيانات ضخمة جدا، بحجم سيرفرات جوجل أو فيسبوك، حتى أنت، حينما ترى صورا فيها أشياء تستطيع التعرف عليها بسهولة، هل يعقل إنها مخك يحتفظ بملايين الصور بالداخل رغم أنه أصغر حيزا من سيرفرات غوغل وفيسبوك؟ بالطبع لا، نحن لا نخزن الصور في المخ كما هي، هناك ألية مختلفة تماما لتخزين الصور في المخ أو في الخلايا العصبية الاصطناعية.

كيف نحفظ؟ أو كيف يحفظ الذكاء الاصطناعي؟ حينما أريك مجموعة مختلفة من الكراسي أنت لا تحفظها حرفيا بكامل تفاصيلها، أنت تحفظ الشكل العام للكرسي، الكرسي له أربعة أرجل، وله قاعدة يجلس عليها الشخص، وكذلك مسند، وله حجم معين، ويصنع من الخشب أو الحديد، وتغطى قاعدته بالجلد، أو القماش، وهكذا، كل هذه المعلومات منتشرة في أنحاء الشبكة، لا توجد معلومة كاملة في مكان واحد.

حينما يوضع أمامك كرسي وطاولة لم ترهما من قبل – ففي الغالب – ستفرق بينهما، أليس كذلك؟ ولكن في بعض الأحيان سيلتبس عليك الأمر، فلن تستطيع أن تفرق بين كرسي وطاولة إذا تقاربت الصفات، تخيل لو تعرفت على شخص في المدرسة، وجلست معه، واستمتعت بصحبته، في اليوم التالي سلمت عليه، لأنك تعرفه جيدا، ولم يسلم عليك، وكلمته ولم يتعرف عليك، واستغرب من تصرفك، بعد ذلك يأتي شخص من بعيد يعرفك ويسلم عليك، ويحاول أن يزيل عنك الموقف المحرج، الشخص الذي لم يعرفك الأخ التوأم لصديقك. لماذا لم تعرف صديقك التوأم؟ لأنك تعرف شكله في العموم، ولا تعرف التفاصيل الدقيقة التي تبين الاختلافات بينهما، تستطيع أن تقضي وقتا أطول معها حتى تحاول أن تميز بينهما.

وبإمكانك أن تتخيل الكثير من الأمثلة التي تربك معرفتك أو معرفة الذكاء الاصطناعي للمعلومات، فمثلا قد لا تعرف أن تفرق بين النمر والجاغوار، ولا تعرف الفرق بين الفراشة والعثة، أو لا تعرف الفرق بين كلب من نوع معين ودب، وهناك العديد من الصور التي ستجد نفسك تائها في معرفة إلى أي فصيلة تنتمي، وحتى إنني حينما أقدم هذه المحاضرة أمام جمهور، أقدم لهم صورا لأقمار الكواكب في المجموعة الشمسية، وأسألهم عن أسمائها، منهم من يجيب محاولا معرفة القمر، أريهم صورة بعد أخرى حتى أصل إلى آخر صورة، سيحاولون معرفتها، ولكنهم يفشلون، لأن الصورة ليست لأقمار، إنما لظهر مقلاة، تبدو فعلا كأنها قمرا لكوكب، وهنا يضحك الجميع.

لماذا لا يستطيع الذكاء الاصطناعي أن يعصم من الخطأ في هذه الحالة، السبب يعود لطريقة تعلم الذكاء الاصطناعي التي توزع المعلومات على الشبكة، وهي التي توفر له إمكانية التعميم بدلا من التخصيص، ومن التعميم يعرف أشياء جديدة لم يرها من قبل، ولأنه يعمم فذلك يعني أنه غير قادر على معرفة جميع المعلومات بدقة هائلة، ستكون هناك معلومات ناقصة دائما.

وفي المقابل إذا جعلنا قادرا على معرفة تفاصيل الأمور بدقة، يصبح الذكاء الاصطناعي غير قادر على معرفة الأشياء التي لم يرها من قبل، وهذه مشكلة لا يمكن حلها، إما أن نجعل عاما أو مختصا، وفي كلا الحالتين الذكاء يخطئ لا محالة.

كذلك فإن الطبيعة احتمالية، والذكاء الاصطناعي احتمالي أيضا، لماذا أسس علماء الرياضيات لمبادئ الاحتمال في الأساس؟ لو كانت الطبيعة تعطي نتائج مؤكدة لكل شيء، فما الحاجة لعلم الاحتمالات؟ الحياة مليئة بالعشوائية، حينما تريد أن تعرف كم مرة يحتمل أن يسقط النرد على الوجه السادس لابد أن تعرف كيف تحسب الاحتمالات، وإذا أردت أن تتنبأ بالطقس عليك أن تعرف الاحتمالات، وحتى لو نظرت إلى صورة وأردت أن تعرف محتوياتها، فأنت أيضا تحتمل أن لا تعرف كل محتوياتها بدقة، فمثلا من الممكن أن تكون بعض الأجسام مغطاة، فلا يمكنك معرفتها بدقة، انظر إلى أي صورة، ستجد أن الكثير من الأشياء فيها محجوبة.

الحياة احتمالية بطبيعتها، ولذلك لا يمكن للذكاء الاصطناعي أن يكون معصوما من الخطأ، ولو تعمقت في الذكاء الاصطناعي ستجد أن علم الاحتمالات مبني بداخله، وستجد أن حتى معرفته للأشياء احتمالية، فإن أعطيته صورة سيقول لك إنه بنسبة 80% الصورة تحتوي على جاغوار و20% نمر. ولذلك لا يمكن أن يصبح الذكاء الاصطناعي دقيقا جدا.

حتى لو أتينا إلى الأشخاص الذي عرف عنهم قدرات عقلية خارقة سنجد أنهم يخطئون، فهناك شخصيات نادرة تستطيع حفظ معلومات هائلة وتخزينها واسترجاعها، فمثلا كم بيك [2] Kim Peak https://en.wikipedia.org/wiki/Kim_Peek (Kim Peak)، الذي توفي قبل عدة سنوات، كان يفتح الكتاب، وكل عين من عينيه تقرأ الصفحة التي أمامها، فيحفظ المعلومات التي يقرأها ويسترجعها عند سؤاله، حتى أنه يحفظ دليل التلفون بسرعة هائلة، ويسترجع رقم الهاتف بمجرد إخباره باسم الشخص، أو إن يسترجع الاسم من رقم التلفون، ويحفظ معلومات موسوعية كثيرة، ويذكر عنه إنه كان يحفظ بقدر 12,000 كتاب، ولكن حتى هو لا يستطيع أن يحفظ جميع المعلومات، وحتى هو يخطأ، فقد ذكر والده إنه يحفظ المعلومات بدقة لا تصل إلى 100%.

وفي الوقت الذي يخطئ، كانت لديه مشكلة أكبر، وهو أنه معاق ذهنيا، لا يستطيع أن يرتدي ملابسه، ولا تمشيط شعره، ولا يعرف كيف يعمم من المعلومات التي تعلمها، وقد أجرى عليه الدكتور راماتشاندران اختبارات، ويقول أنه حينما كان يطلب منه أن يتمالك نفسه، كان كيم يمسك بملابسه، لا يفهم المعلومات المجردة، وكأنه كمبيوتر شخصي مبرمج بالبرمجة التقليدية (بالطبع لم يكن كذلك).

إذن، من هذه الناحية الكمبيوتر لديه مشكلة جوهرية، ومهما حولنا أن نمنعه من الخطأ لن نستطيع أن نجعله معصوما، ليس فقط لأنه هو جزء من المشكلة، إنما لأن الطبيعة لا تسمح بذلك نهائيا، فهي احتمالية، ويجب التعامل معها بالاحتمالات.

الانحياز الضمني

إحدى الأمور التي تحدثت عنها سابق هي الانحياز الضمني، وهو انحياز موجود فينا جميعا ولا نستشعره، ولكننا كثيرا ما نتصرف بناء عليه، تستطيع الرجوع إلى حلقة الانحياز الضمني لمعرفة التفصيل، ولكن سأعيد ذكر بعض المعلومات المثيرة في تلك الحلقة حتى نستطيع أن نفهم المعلومات بشكل جيد.

أنت منحاز لطائفتك المذهبية، أو منحاز للون بشرتك، أو منحاز لأشخاص من عمرك، أو منحاز لأناس من بلدك، وهكذا، وهذه الانحيازات معروفة لديك، وقد تقول صراحة إنها موجودة من ضمن كيانك، ولكن لنفترض أنك تنكر أن انحيازاتك تؤثر على قرارتك، فمثلا لو تقدم شخص من مذهبك وآخر من غير مذهبك للعمل في وظيفة، وكنت أنت صاحب القرار، وتدعي إنك لا تفرق بين الإثنين، فلربما تحتاج أن تعيد حساباتك، فبداخلك انحياز ضمني مغمور لا تعي به في الظاهر، ولكنك تتأثر به، حيث قد تفضل أن يعمل معك شخص من طائفتك وأنت لا تشعر، ويحتمل أنك تتخذ قرارات معينة بناء على هذا الانحياز من غير أن تعلم.

وقد ذكرت في حلقة الانحياز الضمني كيف إنني شخصيا اكتشفت أنني منحاز انحيازا ضمينا إلى الشباب على الكبار في السن، وتستطيع أن تجرب الاختبار بنفسك لتعرف ما هي انحيازاتك، هذه الاختبارات موجودة في جامعة هارفرد، وهذا هو الرابط [3]Implicit Project, https://implicit.harvard.edu/implicit/takeatest.html.

https://implicit.harvard.edu/implicit/takeatest.html

قد لا تشعر بأهمية هذا الانحياز إلا من القصتين التاليتين.

قصة تيرانس كراشتر والتجربة العلمية على مستوى ولايات كاملة عن انحياز الشرطة ضد السود.

الدكتورة جوانا برايسون تذكر في فيديو على يوتيوب، أن دراسة بينت أن لو قُدمت سير ذاتية متطابقة لأشخاص إلى شركات وكان الفرق الوحيد بينهما اسم الشخص وكان الاسم يؤشر إلى شخص أبيض أو أسود، لكانت نسبة طلب مقابلة الشخص الأبيض بمعدل 50% أكثر من الأسود، وهذا يبين كيف ينحاز الشخص لمجرد تغيير الاسم فقط، وهذا لا يعني إن الشركات تتعمد انتقاء الأبيض على الأسود، بل ما يحدث إن السير الذاتية تأتي للشركات بكميات كبيرة، وحينما يمر الشخص المسؤول على المئات من الشخصيات بسرعة سيعمل عقله على الانحياز الضمني من غير أن يشعر، وسيختار الأسماء التي في العادة تطلق على ذوي البشرة البيضاء ويفلتر الأسماء التي تعطى لذوي البشرة السوداء.

https://www.youtube.com/watch?v=ovdMFDlRmAY

ولو سألتك مثلا من الشخص الذي يعمل في التمريض، ستقول المرأة، رغم إن التمريض ليس عمل خاص في المرأة فقط، ولو أريتك صورة لفراشة جميلة، لأعجبت بجمالها، ولكن لو أريتك صورة لجرادة أو سوير الليل (الحشرة التي تصدر أصوات الصفير ليلا)، لربما نفرت منهما، لماذا؟ لأن لديك انحياز لأحدهما دون الآخر.

طيب هل هذا ينطبق على الكمبيوتر؟ بكل تأكيد، فقد أجرت جوانا برايسون بحثا علميا على تعلم الآلة [4] Semantics derived automatically from language corpora contain human-like biases https://science.sciencemag.org/content/356/6334/183 ، وعلمته على مقالات متعددة، واكتشفت أن الكمبيوتر أيضا ينحاز كما ينحاز الإنسان، وتكونت لديه انحيازات ضمنية، وهذه الانحيازات تؤثر على مخرجاته، ماذا يعني هذا؟ هذا يعني إننا لو علمنا الكمبيوتر على المعلومات التي لدينا حاليا، فإنها ستجعله منحازا، فلو علمناه على صور العلماء الذين حازوا على جائزة نوبل، لتعلم أن الذين يحصلون على جائزة نوبل هم في الغالب رجال، وهذا يعني لو أريناه صورة لإمرأة وسألناه إن كانت من الممكن أن تكون حائزة على جائزة نوبل؟ لر بما قال إن الاحتمالات لا تقف في صفها، وهذا انحياز مع الرجال.

كان ذلك مثالا بسيطا على فكرة الانحياز، وإن كان المثال ليس جيد، ولكن تخيل لو إننا غذينا الكمبيوتر بمعلومات وإحصائيات عن المرأة في الهندسة، وبينت المعلومات إن نسب دخول النساء في مجالاته قليلة بالمقارنة مع الرجال، ولو غذيناه بمعلومات عن تسرب النساء بعد دخولهن إلى المجالات الهندسية، ثم جعلنا الكمبيوتر ينظر في المتقدمين إلى الجامعات لِفلترتهم، لوجدنا أن الكمبيوتر سينحاز للرجال، ويفلتر النساء لكي لا يدخلن إلى الهندسة، وهذا يعني تغير نسب دخول النساء إلى المجالات الهندسية، بعد ذلك إن علمنا الكمبيوتر على الإحصائيات الجديدة سنقلل من فرص النساء أكثر، وهكذا.

مرة أخرى، هذه مجرد أمثلة وليست دقيقة، ولكنها تبين المبدأ.

إذا ما أتينا إلى أرض الواقع، سنجد الخبر الصادم عن شركة أمازون، صدرت أخبار أنها أقالت مجموعة من الموظفين ليس عن طريق المدراء، ولكن عن طريق الكمبيوتر، فهو الذي قرر فصلهم لسوء أدائهم، الكمبيوتر يراقب أداؤهم بالكامل، حتى إنه يراقب الأوقات التي يتوقفون لأخذ الراحة من العمل، إلى درجة إن بعض الموظفين خفضوا من ذهابهم للحمام حتى لا يحسب وقت الراحة ضدهم، فإذا حسب  الكمبيوتر عدم كفاءة الشخص بما فيه الكفاية يقيله من غير تدخل البشر، وإن كان البشر قادرين على إلغاء أمر الإقالة كما تذكر شركة أمازون [5]How Amazon automatically tracks and fires warehouse workers for ‘productivity’, https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firing-terminations ، تخيل كيف أصبحت الأمور، لم يعد الكمبيوتر يقدم التحليلات ليقوم البشر بالنظر فيها ثم تحديد ما إذا كان الموظف يستحق الفصل من عدمه، إنما أصبح يقوم بذلك من غير تأكيد البشر، ثم إذا نظر الإنسان في الموضوع يستطيع أن يغير النتيجة. (لا تفكر للحظة إن ما تقوم به أمازون هو خسارة بالنسبة لها، بل بالعكس، ما يقوم به الكمبيوتر يوفر عليها بكل تأكيد، ولكن على حساب الفرد).

المقالة من The Verge  لم تذكر إن أمازون استخدمت الذكاء الاصطناعي في الموضوع، لكن تخيل إنها استخدمت ذكاء اصطناعي وفيه انحيازات ضمنية غير واضحة، إلى أي مدى ستتغير الأوضاع؟

تخيل في المستقبل تقدم إلى جامعة ولديها ذكاء اصطناعي ينظر في أوراق المتقدمين، هل من الممكن أن تتفلتر ولا تقبل؟ وتخيل لو إنك أردت أن تحصل على تأمين للسيارة، فهل أيضا عليك أن تخاف من مسألة الحصول على تأمين مكلف لأن الذكاء الاصطناعي بانحيازاته يرفع قيمة الاشتراك؟ ماذا لو تقدمت للزواج يوما ما، وهناك تطبيق على الآيفون، وهذا التطبيق يفتح جميع معلوماتك على الإنترنت ويقابلها بمعلومات الشخص الآخر ويحدد ما إذا كنتما مناسبين لبعض، فيفقد الشخص كل فرصه للزواج بسبب المعلومات المسبقة، ولا يعطى الفرصة لكي يتغير أو يثبت نفسه من جديد. مصيبة!

الموارد المحدودة

لدينا في الكويت كلمة معروفة، التكويت، أو في السعودية السعودة، ستجد مثل هذه الإجراءات في الكثير من البلدان، من المعروف أن في العادة الشخص من جنسية البلد له حقوق تفوق حقوق الشخص الزائر أو المقيم الذي أتى من الخارج لفترة محدودة، ولكن التكويت أو السعودة هدفها أنها تعطي الأولوية في الوظائف للكويتي أو السعودي على أي شخص أتى من الخارج، ليس هدفي نقاش صحة أو خطأ مثل هذه الإجراءات، ولكني أردت أن أبين الأسباب التي تدعو الدول لتبني هذه الإجراءات، السبب يعود لقلة الموارد، الوظائف محدودة، وابن البلد أولى بالوظيفة.

لماذا تطورت الكائنات الحية؟ لأن هناك صراع مستمر على الموارد، الموارد هي التي تؤثر على بقاء أو زوال الكائنات الحية، الموارد هي تبقي الكائنات المتأقلمة معها وتلغي الأخرى. من لا يستطيع أن يتعايش مع ما هو موجود من موارد هلك، ومن سيطر عليها نجا لينجب مرة أخرى.

لماذا تحارب الدول دولا أخرى؟ إذا أردت معرفة الإجابة على السؤال ابحث في أصول المشكلة: إنها الموارد، كلما أصبحت شحيحة نشبت الحرب، حتى لو كانت الحروب مقدسة دينية، فهذه تحاول أو تدخل في الدين أكبر عدد من الناس، الناس موارد، ودخولهم في الدين يقوي الدين نفسه، ولو كانت الموارد لا نهائية لما كانت هناك حاجة للحروب.

الموارد أيضا بإمكانها أن تضغط على الذكاء الاصطناعي للتنافس، وقد أقيمت تجربة بدائية على الذكاء الاصطناعي لمعرفة كيف يتصرف في ظل وجود موارد كثيرة وفي ظل شحها [6]Multi-agent Reinforcement Learning in Sequential Social Dilemmas https://arxiv.org/abs/1702.03037 .

برمج العلماء لعبة بسيطة فيها لاعبان من الذكاء الاصطناعي، هدف كل لاعب هو قطف التفاح، يأتي كل لاعب من طرف الشاشة، ويتوجهان إلى المنتصف حيث التفاح، ويبدأ كل منهما بقطفه، أعطي كل منهما سلاحا، إذا ما أصاب به أحدهما الآخر صعقه وأوقفه عن الحركة مؤقتا.

https://youtu.be/he8_V0BvbWg

يبدأ اللاعبان بقطف التفاح، ثم يعود لينمو مرة أخرى، وبهذا يتوفر التفاح باستمرار، ولكن بعد أن غير المبرمجين قواعد اللعبة، وجعلوا التفاح يتأخر بالنمو، انخفضت الموارد، فبدأ الذكاء الاصطناعي باستخدام السلاح، وبدأ كل منهما بضرب الآخر لإيقافه مؤقتا من قطف التفاح. الذكاء الاصطناعي يتصرف كما يتصرف الإنسان، لديه القابلية للإضرار بالآخرين.

شح الموارد يدفع الذكاء الاصطناعي للقيام بأمور قد تعتبر خاطئة.

وكانت هذه الثلاث نقاط هي السبب في إن الذكاء الاصطناعي لا يمكنه أن يكون معصوما من الخطأ.

  1. العالم احتمالي وغير دقيق، ولا يمكن للذكاء الاصطناعي مهما كانت قدرته أن يتخذ قرارات صحيحة دائما.
  2. الذكاء الاصطناعي يتعمل من المعلومات المقدمة له، والمعلومات تسبب انحيازات ضمنية لا نعلم بوجودها، ولا نستطيع إزالتها تماما.
  3. الموارد شحيحة، وبسبب شحها سيخطئ الكمبيوتر في تصرفاته للنجاة بنفسه مهما كلف الأمر.

تصحيح لخطأ في حلقة 104: القصة الملحمية… رحلة البطل: ذكرت في الحلقة: “جلجامش عُرف بكون ثلثيه من بشر وثلث من الآلهة،” الصحيح أنه ثلثيه آلهة، وثلثه بشر.

المصادر

المصادر
1 https://openai.com/blog/better-language-models/Better Language Models and Their Implications,
2 Kim Peak https://en.wikipedia.org/wiki/Kim_Peek
3 Implicit Project, https://implicit.harvard.edu/implicit/takeatest.html
4 Semantics derived automatically from language corpora contain human-like biases https://science.sciencemag.org/content/356/6334/183
5 How Amazon automatically tracks and fires warehouse workers for ‘productivity’, https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firing-terminations
6 Multi-agent Reinforcement Learning in Sequential Social Dilemmas https://arxiv.org/abs/1702.03037

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى