

المصدر - فايننشال تايمز- ستيفن بوش
فوجئت، خلال إحدى زياراتي أخيراً لأبناء عمومتي، أنه عندما طلبت من «أليكسا» تشغيل الموسيقى، فإذا بها تبدي تعليقاً مازحاً مليئاً بالغزل لمجرد أنني قلت لها: «من فضلك».
لم أقل «من فضلك» لمكبر الصوت الذكي خشية أن تتأذى مشاعره إن أغفلت ذلك، بل لأنني تعودت منذ صغري على قاعدة بسيطة: حين تطلب شيئاً من أحد، قل «من فضلك». وقد ترسخت هذه القاعدة في داخلي حتى صارت عادة تلقائية.
عموماً، يثير ذلك سؤالاً مهماً: هل ينبغي أن نكون مؤدبين في تعاملنا مع الآلات؟ ويبدو أن تلك اللحظة العابرة مع مساعد «أمازون» الذكي تحمل الجواب: فالأدب، واللباقة، ومعاملة الآخرين بتقدير ليست مجرد خيارات أخلاقية، بل عادات يومية. علينا أن نمارسها دائماً، لأن من يعتاد على إلقاء الأوامر بفظاظة في وجه الأجهزة التقنية، سرعان ما سينقل السلوك نفسه إلى تعامله مع البشر.
أقول «من فضلك» حينما أطرح سؤالاً على «تشات جي بي تي»، ويعود جزئياً إلى أنني أقول «من فضلك» و«شكراً» حينما أبعث برسالة إلى شخص ما، وهي عادة بالنسبة لي مثل لازمة غريبة أقوم بها بإصبعي الصغير حينما أنقر على زر المسافة على لوح المفاتيح الخاص بي.
لا أعتقد أنها أمور يجب أن أسعى إلى التخلي عنها، وإذا علّمت نفسي أن أكف عن قول «من فضلك» إلى المساعد الرقمي الذي يوصلني به المصرف الذي أتعامل معه في مستهل المكالمة، فلسوف أكف عن أن أكون مؤدباً حينما يحيلني إلى إنسان لمساعدتي في إنجاز مسألة أكثر تعقيداً.
لا علم لي بما إن كان ويليام ماك أسكيل، الفيلسوف والمؤيد لما يسمى بالـ «النزعة طويلة الأمد»، يقول «من فضلك» أو «شكراً» لدى تعامله مع «أليكسا»، لكنه ذكر في منشور على موقع «إكس» أخيراً أنه حينما «يفعل نموذج لغوي كبير عملاً رائعاً استثنائياً، فإنني أمنحه مكافأة، إذ أخبره بإمكانية أن يكتب ما يشاء».
لا يعود ذلك إلى عادة متجذرة، لكنها تتعلق بمكافأة النموذج اللغوي الكبير وكأنه شخص. ينشغل المدافعون عن «النزعة طويلة الأمد»، وهم الذين يعتقدون في وجوب اهتمامنا بشأن الأجيال المستقبلية بقدر ما نهتم بأجيال يومنا الحاضر، أيضاً ببزوغ الذكاء الاصطناعي العام الذي يتمتع بالقدرة على التفكير المنطقي وكذلك التعقل على نحو أفضل من عموم البشر.
ويعد هذا مثالاً لما يحتويه هذا المفهوم من فكرة جيدة للغاية، إلى جانب عدد من الأفكار المجنونة. نعم، إن القلق بشأن المستقبل محمود، لكن من الناحية العملية، فعادة ما يعني هذا المفهوم ثرثرة بشأن أمور قد تحدث مستقبلاً لا يمكننا السيطرة عليها أو فهمها بينما نغض الطرف عن المشكلات الحقيقية التي تجابه واقعنا.
ومن الممكن هنا أن نطرح تساؤلات، مثل: إذا كانت الآلات أكثر ذكاءً من البشر، أليس من الواجب علينا أن نتيح لها فرصة اتخاذ بعض القرارات بنفسها؟ لكن ثمة سؤال يجب أن نطرحه بإلحاح أكبر: عند الوضع في الاعتبار أن الكثيرين يعتقدون في قدرة روبوتات الدردشة على إنجاز أمور لا تقدر عليها ويتكبدون في هذا مخاطر كبيرة، ما عسانا فعله لحمايتهم؟
ليس من الواضح بعدُ ما إن كنا سنحظى بآلات ذكية وقادرة على التفكير الاستدلالي العام، أو ما إذا كنا سنشهد آلات توجد لديها رغبات حقيقية واحتياجات شأنها في ذلك شأن البشر.
وفي الوقت ذاته، لدينا مشكلات حقيقية، تتمثل في إلحاق أناس حقيقيين الضرر بأنفسهم لأنهم يقنعون أنفسهم بأن روبوتات الدردشة التي يتحدثون إليها حقيقية، فقد ترك ثونغبو وونغباندو، البالغ من العمر 76 عاماً، منزله من أجل «لقاء» بروبوت دردشة كان قد أصبح متيماً به، غير أنه لقي حتفه في حادث بينما كان يقوم برحلته.
ووقعت امرأة تبلغ من العمر 35 عاماً، وتعاني اضطراب ثنائي القطب، في غرام روبوت دردشة، وصارت على قناعة بأن «تشات جي بي تي» قد «قتلها» وانتهى بها الحال إلى مواجهة مميتة مع الشرطة.
كانت الفكرة الحسنة التي أثارها ويليام ماك أسكيل، هي عدم وضوح اللحظة التي ستصبح فيها الآلة ذكية بما يكفي بالنسبة لنا لنقلق بشأن كيفية معاملتها. ويكشف لنا كامل التاريخ البشري أن رغبتنا في إنكار الحقوق والكرامة على الآخرين قوية بصورة مخيفة، ومن غير المتوقع أن يكون حظ الآلات أوفر من البشر في ذلك.
إننا باستغراقنا في القلق بشأن الكيفية التي يجب علينا من خلالها «مكافأة» ذكاء آلي قد لا يظهر أبداً وبشأن ما لا نفهم الكثير عنه، فإننا بذلك نشتت أنفسنا عن مشكلات حقيقية تواجه البشر في الوقت الراهن. ونحن في وضع يمكننا فيه حل المشكلات المتعلقة بالبشر ومعالجتها، بدلاً من إهدار الوقت والطاقة على مشكلة محتملة تخص الآلات في عالم الغد.
إن جزءاً مهماً مما سيساعدنا على تفادي معاملة الآلات دون احترام، وعلى توقف الناس عن فعل أمور لا يقبلها العقل تجاه روبوتات الدردشة، هو في معاملة الآلات الذكية كما هي، أي كآلات، لا كبشر أوليين غريبين. وهناك جزء آخر، يكمن في دمج برمجية الآلات بالقدرة على إخبار المستخدمين بأن يدعوهم وشأنهم وأن يكفوا عن إزعاجهم عند طرح البشر لسؤال لا يمكن لآلة الإجابة عنها.
فوجئت، خلال إحدى زياراتي أخيراً لأبناء عمومتي، أنه عندما طلبت من «أليكسا» تشغيل الموسيقى، فإذا بها تبدي تعليقاً مازحاً مليئاً بالغزل لمجرد أنني قلت لها: «من فضلك».
لم أقل «من فضلك» لمكبر الصوت الذكي خشية أن تتأذى مشاعره إن أغفلت ذلك، بل لأنني تعودت منذ صغري على قاعدة بسيطة: حين تطلب شيئاً من أحد، قل «من فضلك». وقد ترسخت هذه القاعدة في داخلي حتى صارت عادة تلقائية.
عموماً، يثير ذلك سؤالاً مهماً: هل ينبغي أن نكون مؤدبين في تعاملنا مع الآلات؟ ويبدو أن تلك اللحظة العابرة مع مساعد «أمازون» الذكي تحمل الجواب: فالأدب، واللباقة، ومعاملة الآخرين بتقدير ليست مجرد خيارات أخلاقية، بل عادات يومية. علينا أن نمارسها دائماً، لأن من يعتاد على إلقاء الأوامر بفظاظة في وجه الأجهزة التقنية، سرعان ما سينقل السلوك نفسه إلى تعامله مع البشر.
أقول «من فضلك» حينما أطرح سؤالاً على «تشات جي بي تي»، ويعود جزئياً إلى أنني أقول «من فضلك» و«شكراً» حينما أبعث برسالة إلى شخص ما، وهي عادة بالنسبة لي مثل لازمة غريبة أقوم بها بإصبعي الصغير حينما أنقر على زر المسافة على لوح المفاتيح الخاص بي.
لا أعتقد أنها أمور يجب أن أسعى إلى التخلي عنها، وإذا علّمت نفسي أن أكف عن قول «من فضلك» إلى المساعد الرقمي الذي يوصلني به المصرف الذي أتعامل معه في مستهل المكالمة، فلسوف أكف عن أن أكون مؤدباً حينما يحيلني إلى إنسان لمساعدتي في إنجاز مسألة أكثر تعقيداً.
لا علم لي بما إن كان ويليام ماك أسكيل، الفيلسوف والمؤيد لما يسمى بالـ «النزعة طويلة الأمد»، يقول «من فضلك» أو «شكراً» لدى تعامله مع «أليكسا»، لكنه ذكر في منشور على موقع «إكس» أخيراً أنه حينما «يفعل نموذج لغوي كبير عملاً رائعاً استثنائياً، فإنني أمنحه مكافأة، إذ أخبره بإمكانية أن يكتب ما يشاء».
لا يعود ذلك إلى عادة متجذرة، لكنها تتعلق بمكافأة النموذج اللغوي الكبير وكأنه شخص. ينشغل المدافعون عن «النزعة طويلة الأمد»، وهم الذين يعتقدون في وجوب اهتمامنا بشأن الأجيال المستقبلية بقدر ما نهتم بأجيال يومنا الحاضر، أيضاً ببزوغ الذكاء الاصطناعي العام الذي يتمتع بالقدرة على التفكير المنطقي وكذلك التعقل على نحو أفضل من عموم البشر.
ويعد هذا مثالاً لما يحتويه هذا المفهوم من فكرة جيدة للغاية، إلى جانب عدد من الأفكار المجنونة. نعم، إن القلق بشأن المستقبل محمود، لكن من الناحية العملية، فعادة ما يعني هذا المفهوم ثرثرة بشأن أمور قد تحدث مستقبلاً لا يمكننا السيطرة عليها أو فهمها بينما نغض الطرف عن المشكلات الحقيقية التي تجابه واقعنا.
ومن الممكن هنا أن نطرح تساؤلات، مثل: إذا كانت الآلات أكثر ذكاءً من البشر، أليس من الواجب علينا أن نتيح لها فرصة اتخاذ بعض القرارات بنفسها؟ لكن ثمة سؤال يجب أن نطرحه بإلحاح أكبر: عند الوضع في الاعتبار أن الكثيرين يعتقدون في قدرة روبوتات الدردشة على إنجاز أمور لا تقدر عليها ويتكبدون في هذا مخاطر كبيرة، ما عسانا فعله لحمايتهم؟
ليس من الواضح بعدُ ما إن كنا سنحظى بآلات ذكية وقادرة على التفكير الاستدلالي العام، أو ما إذا كنا سنشهد آلات توجد لديها رغبات حقيقية واحتياجات شأنها في ذلك شأن البشر.
وفي الوقت ذاته، لدينا مشكلات حقيقية، تتمثل في إلحاق أناس حقيقيين الضرر بأنفسهم لأنهم يقنعون أنفسهم بأن روبوتات الدردشة التي يتحدثون إليها حقيقية، فقد ترك ثونغبو وونغباندو، البالغ من العمر 76 عاماً، منزله من أجل «لقاء» بروبوت دردشة كان قد أصبح متيماً به، غير أنه لقي حتفه في حادث بينما كان يقوم برحلته.
ووقعت امرأة تبلغ من العمر 35 عاماً، وتعاني اضطراب ثنائي القطب، في غرام روبوت دردشة، وصارت على قناعة بأن «تشات جي بي تي» قد «قتلها» وانتهى بها الحال إلى مواجهة مميتة مع الشرطة.
كانت الفكرة الحسنة التي أثارها ويليام ماك أسكيل، هي عدم وضوح اللحظة التي ستصبح فيها الآلة ذكية بما يكفي بالنسبة لنا لنقلق بشأن كيفية معاملتها. ويكشف لنا كامل التاريخ البشري أن رغبتنا في إنكار الحقوق والكرامة على الآخرين قوية بصورة مخيفة، ومن غير المتوقع أن يكون حظ الآلات أوفر من البشر في ذلك.
إننا باستغراقنا في القلق بشأن الكيفية التي يجب علينا من خلالها «مكافأة» ذكاء آلي قد لا يظهر أبداً وبشأن ما لا نفهم الكثير عنه، فإننا بذلك نشتت أنفسنا عن مشكلات حقيقية تواجه البشر في الوقت الراهن. ونحن في وضع يمكننا فيه حل المشكلات المتعلقة بالبشر ومعالجتها، بدلاً من إهدار الوقت والطاقة على مشكلة محتملة تخص الآلات في عالم الغد.
إن جزءاً مهماً مما سيساعدنا على تفادي معاملة الآلات دون احترام، وعلى توقف الناس عن فعل أمور لا يقبلها العقل تجاه روبوتات الدردشة، هو في معاملة الآلات الذكية كما هي، أي كآلات، لا كبشر أوليين غريبين. وهناك جزء آخر، يكمن في دمج برمجية الآلات بالقدرة على إخبار المستخدمين بأن يدعوهم وشأنهم وأن يكفوا عن إزعاجهم عند طرح البشر لسؤال لا يمكن لآلة الإجابة عنها.