الذكاء الاصطناعي ليس قاتلاً... الإنسان هو المسؤول

كتب شاهر الحجايا * في السنوات الأخيرة، أصبح الذكاء الاصطناعي جزءاً من حياتنا اليومية: في الطب، التعليم، الصناعة، وحتى في التواصل بين البشر. لكن في الجانب الاخر، بدأ اسمه يذكر في سياق أخطر: الحروب والقتل. وهنا يجب أن نكون واضحين منذ البداية: الذكاء الاصطناعي لا يقتل أحدأ. الذي يقتل هو الإنسان الذي قرر استخدامه بهذه الطريقه. أين تكمن المشكلة؟ المشكلة ليست في الخوارزميات، بل في غياب المسؤولية. اليوم، يمكن: كتابة كود تطوير نظام تسليمها لجهة ما ثم يختفي الجميع خلف جملة واحدة: "النظام هو من قرر" وهذا أخطر ما يمكن أن نسمح به. عندما يغيب الإنسان عن القرار في بعض الاستخدامات، خاصة العسكرية أو الامنية، لم يعد الإنسان هو من يضغط الزناد، بل: نظام ذكي مسيّرة خوارزمية تتخذ القرار في أجزاء من الثانية لكن السؤال الأخلاقي البسيط هو: من يتحمل المسؤولية عندما يقتل إنسان بريء؟ لا يمكن أن تكون الإجابة: "لا أحد." الحل ليس منع الذكاء الاصطناعي منع التكنولوجيا مستحيل، والتقدم لا يعود الى الوراء. لكن تنظيم الإنسان ممكن. كما أن: الطبيب يوقع قبل الجراحة والمهندس يوقع قبل بناء الجسر يجب أن يكون هناك: توقيع أخلاقي ومسؤولية واضحه على كل نظام ذكاء اصطناعي عالي الخطورة. فكرة البصمة الإلكترونية للمطور تخيل لو أن كل نظام قادر على إلحاق أذى جسيم:مرتبط ببصمة إلكترونية تحدد من صممه ومن وافق عليه ومن فعّله ليس للتجسس، ولا بملاحقة الأبرياء، بل فقط للمساءلة عند الضرورة. عندها، سيفكر اي مطور ألف مرة قبل أن يشارك في مشروع قد يستخدم للقتل. الخوف الأخلاقي... ليس ضعفًا أن يخاف المبرمج من العواقب الأخلاقية ليس أمرا سلبيا. بل هو: وعي مسؤولية إنسانية الخوف الحقيقي هو أن نصل الى مرحلة: يقتل فيها البشر بقرارات آلية ولا يسأل عنها أحد. الإنسان أولا مهما تطورت التكنولوجيا، يجب يبقى: القرار النهائي بيد الإنسان والمسؤوليات واضحة والحدود الأخلاقية غير قابلة للتجاوز لأن الإنسان ، في النهاية، ليس رقمًا... ولا هدفا... ولا "خطأ تقنيًا”. كلمة أخيرة الذكاء الاصطناعي يمكن أن: ينقذ ملايين الأرواح أو يساهم في ازهاقها والفارق بين الأمرين ليس الكود، بل الضمير الذي يقف خلفه. * 962777999475 .