تقنية وتكنولوجيا

إذا أصبحت أنظمة الذكاء الاصطناعي واعية ، هل يجب أن يكون لديهم حقوق؟


واحدة من أكثر القيم العميقة لي ككاتب عمود تقني هو الإنسانية. أنا أؤمن بالبشر ، وأعتقد أن التكنولوجيا يجب أن تساعد الناس ، بدلاً من عدم القدرة أو استبدالهم. أهتم بمواءمة الذكاء الاصطناعي – أي ، التأكد من أن أنظمة الذكاء الاصطناعي تعمل وفقًا للقيم الإنسانية – لأنني أعتقد أن قيمنا جيدة بشكل أساسي ، أو على الأقل أفضل من القيم التي يمكن أن يتوصل إليها الروبوت.

لذلك عندما سمعت أن الباحثين في الأنثروبور ، فإن شركة الذكاء الاصطناعى التي جعلت كلود chatbot ، بدأت في دراسة “الرفاهية النموذجية” – فكرة أن نماذج الذكاء الاصطناعى قد تصبح واعية وسرعان ما تستحق نوعًا من الوضع الأخلاقي – إن الإنسانية في نفسي فكرت: من يهتم بالدردشة؟ ألا يفترض أن نكون قلقين بشأن سوء معاملة الذكاء الاصطناعي ، ولا نخطئ في معاملة ذلك؟

من الصعب القول بأن أنظمة الذكاء الاصطناعى اليوم واعية. بالتأكيد ، تم تدريب نماذج اللغة الكبيرة على التحدث مثل البشر ، وبعضها مثير للإعجاب للغاية. ولكن هل يمكن لدردشة تجربة الفرح أو المعاناة؟ هل يستحق الجوزاء حقوق الإنسان؟ سيقول العديد من خبراء الذكاء الاصطناعى الذين أعرفهم لا ، ليس بعد ، ولا حتى قريبًا.

لكنني كنت مفتونًا. بعد كل شيء ، بدأ المزيد من الناس في التعامل مع أنظمة الذكاء الاصطناعى كما لو كانوا واعيين – الوقوع في حبهم ، وذلك باستخدامهم كمعالجين ويلتمحون نصيحتهم. أذكى أنظمة الذكاء الاصطناعى تتجاوز البشر في بعض المجالات. هل هناك أي عتبة تبدأ منظمة العفو الدولية في تستحقها ، إن لم تكن حقوقًا على مستوى الإنسان ، على الأقل نفس الاعتبار الأخلاقي الذي نقدمه للحيوانات؟

لطالما كان الوعي موضوعًا من المحرمات في عالم أبحاث الذكاء الاصطناعى الجاد ، حيث يشعر الناس بالقلق من تجسيد أنظمة الذكاء الاصطناعى خوفًا من الظهور مثل السواعد. (يتذكر الجميع ما حدث لبليك ليموين ، موظف سابق في Google تم فصله في عام 2022 ، بعد أن ادعى أن chatbot Lamda للشركة قد أصبح عاطفيًا.)

لكن هذا قد يبدأ في التغيير. هناك مجموعة صغيرة من الأبحاث الأكاديمية حول رفاهية نموذج الذكاء الاصطناعى ، وعدد متواضع ولكن متزايد من الخبراء في مجالات مثل الفلسفة وعلم الأعصاب يأخذون احتمال وعي الذكاء الاصطناعي بجدية أكبر ، حيث تنمو أنظمة الذكاء الاصطناعى أكثر ذكاءً. في الآونة الأخيرة ، قارن Tech Podcaster Dwarkesh Patel رفاهية الذكاء الاصطناعي برفاهية الحيوانات ، قائلاً إنه يعتقد أنه من المهم التأكد من أن “المكافئ الرقمي لزراعة المصنع” لا يحدث لكائنات AI في المستقبل.

بدأت شركات التكنولوجيا في الحديث عنها أكثر أيضًا. نشرت Google مؤخرًا قائمة عمل لعالم أبحاث “ما بعد AAGI” الذي ستشمل مجالات تركيزه “وعي الماكينة”. وفي العام الماضي ، استأجرت الأنثروبور أول باحث في رعاية الذكاء الاصطناعي ، كايل فيش.

قابلت السيد فيش في مكتب سان فرانسيسكو في الإنسان الأسبوع الماضي. إنه نباتي ودود ، مثل عدد من موظفي الأنثروبور ، له صلة بالإيثار الفعال ، وهي حركة فكرية ذات جذور في المشهد التقني للمنطقة الخليج التي تركز على سلامة الذكاء الاصطناعي ، ورفاهية الحيوانات وغيرها من القضايا الأخلاقية.

أخبرني السيد فيش أن عمله في الأنثروبور يركز على سؤالين أساسيين: أولاً ، هل من الممكن أن يصبح كلود أو أنظمة الذكاء الاصطناعى الأخرى واعية في المستقبل القريب؟ وثانياً ، إذا حدث ذلك ، فما الذي يجب أن يفعله الإنسان حيال ذلك؟

وأكد أن هذا البحث لا يزال مبكرًا واستكشافيًا. إنه يعتقد أن هناك فرصة صغيرة فقط (ربما 15 في المائة أو نحو ذلك) أن كلود أو نظام AI الحالي آخر واعي. لكنه يعتقد أنه في السنوات القليلة المقبلة ، حيث تطور نماذج الذكاء الاصطناعى قدرات أكثر إنسانية ، ستحتاج شركات الذكاء الاصطناعى إلى أخذ إمكانية الوعي بجدية أكبر.

“يبدو لي أنه إذا وجدت نفسك في وضع جلب بعض الفئة الجديدة من الوجود القادر على التواصل والارتباط والسبب في حل المشكلات وتخطط بطرق ارتبطنا بها سابقًا فقط مع الكائنات الواعية ، فإنه يبدو من الحكمة أن نطرح أسئلة على الأقل حول ما إذا كان هذا النظام قد يكون له أنواعه الخاصة من التجارب”.

السيد فيش ليس هو الشخص الوحيد في التفكير الإنساني في رفاهية الذكاء الاصطناعي. هناك قناة نشطة على نظام المراسلة Slack للشركة التي تسمى #-Goldare ، حيث يقوم الموظفون بتسجيل الوصول إلى أمثلة كلود ومشاركة أنظمة AI التي تعمل بطرق إنسانية.

أخبرني جاريد كابلان ، كبير مسؤولي العلوم في الأنثروبور ، في مقابلة منفصلة أنه يعتقد أنه “معقول للغاية” لدراسة رفاهية الذكاء الاصطناعي ، بالنظر إلى مدى ذكاء النماذج.

لكن اختبار أنظمة الذكاء الاصطناعى من أجل الوعي أمر صعب ، كما حذر السيد كابلان ، لأنها تقليد جيد. إذا تطالب Claude أو ChatGpt بالتحدث عن مشاعره ، فقد يمنحك استجابة مقنعة. هذا لا يعني chatbot في الواقع لديه المشاعر – فقط أنها تعرف كيف تتحدث عنهم.

قال السيد كابلان: “الجميع يدركون تمامًا أنه يمكننا تدريب النماذج على قول ما نريد”. “يمكننا مكافأتهم على القول إن ليس لديهم مشاعر على الإطلاق. يمكننا مكافأتهم لقولهم تكهنات فلسفية مثيرة للاهتمام حقًا حول مشاعرهم.”

فكيف من المفترض أن يعرف الباحثون ما إذا كانت أنظمة الذكاء الاصطناعى واعية بالفعل أم لا؟

قال السيد فيش إنه قد ينطوي على استخدام تقنيات مستعارة من قابلية التفسير الميكانيكي ، وهو حقل فرعي لمنظمة العفو الدولية يدرس الأعمال الداخلية لأنظمة الذكاء الاصطناعى ، للتحقق مما إذا كانت بعض الهياكل والمسارات المرتبطة بالوعي في العقول البشرية نشطة أيضًا في أنظمة الذكاء الاصطناعي.

وقال إنه يمكنك أيضًا التحقيق في نظام الذكاء الاصطناعي ، من خلال مراقبة سلوكه ، ومشاهدة كيفية اختيار العمل في بيئات معينة أو إنجاز مهام معينة ، والتي يبدو أنها تفضلها وتجنبها.

أقر السيد فيش أنه ربما لم يكن هناك اختبار واحد لوعي الذكاء الاصطناعي. (يعتقد أن الوعي ربما يكون أكثر من طيف أكثر من التبديل البسيط نعم/لا ، على أي حال.) لكنه قال إن هناك أشياء يمكن لشركات الذكاء الاصطناعي القيام بها لأخذ رفاهية نماذجها في الاعتبار ، في حال أصبحت واعية يومًا ما.

وقال إن أحد الأسئلة الأنثروبرية هو استكشاف ما إذا كان ينبغي إعطاء نماذج الذكاء الاصطناعى في المستقبل القدرة على التوقف عن الدردشة مع مستخدم مزعج أو مسيء ، إذا وجدوا طلبات المستخدم محزنة للغاية.

“إذا كان المستخدم يطلب باستمرار محتوى ضارًا على الرغم من رفض النموذج ومحاولات إعادة التوجيه ، فهل يمكننا السماح للنموذج ببساطة بإنهاء هذا التفاعل؟” قال السيد فيش.

قد يرفض النقاد تدابير مثل هذه الكلام المجنون – أنظمة الذكاء الاصطناعى اليوم ليست واعية بمعظم المعايير ، فلماذا التكهن بما قد يجدونه بغيضًا؟ أو قد يعترضون على وعي شركة الذكاء الاصطناعى في الدراسة في المقام الأول ، لأنه قد يخلق حوافز لتدريب أنظمتها على التصرف أكثر عناوين مما هي عليه بالفعل.

أنا شخصياً أعتقد أنه من الجيد للباحثين دراسة رفاهية الذكاء الاصطناعي ، أو فحص أنظمة الذكاء الاصطناعى للحصول على علامات الوعي ، طالما أنها لا تحفر الموارد من أعمال سلامة الذكاء الاصطناعى ومواءمة الذكاء الاصطناعي التي تهدف إلى الحفاظ على آمنة البشر. وأعتقد أنه ربما يكون من الجيد أن تكون لطيفًا لأنظمة الذكاء الاصطناعي ، إذا كانت مجرد تحوط. (أحاول أن أقول “من فضلك” و “شكرًا لك” إلى chatbots ، على الرغم من أنني لا أعتقد أنهما واعيون ، لأنه ، كما يقول سام التمان من Openai ، لا تعرف أبدًا.)

لكن في الوقت الحالي ، سأحتفظ بقلقي العميق لأشكال الحياة القائمة على الكربون. في عاصفة الذكاء الاصطناعى القادمة ، فإن رفاهيتنا الأكثر قلقًا.



المصدر

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى