موظفون في شركتي جوجل و OpenAI ينبهون إلى مخاطر الذكاء الاصطناعي

mobilltnaآخر تحديث :
موظفون في شركتي جوجل و OpenAI ينبهون إلى مخاطر الذكاء الاصطناعي

حذر موظفون سابقون وحاليون في كل من شركتي OpenAI وDeepMind، التابعتين لجوجل، من المخاطر المحتملة التي قد تنجم عن تطويرها.الذكاء الاصطناعيوأكدوا على أهمية تعزيز حماية المبلغين عن الانتهاكات، فيرسالةتوجهت ورسالة إلى الإدارات والجهات التنظيمية.

وقد وقع على الرسالة 13 موظفًا من شركتي OpenAI و DeepMind، وهما من الشركات الرائدة في مجال أبحاث الذكاء الاصطناعي.

عبر الموظفون في الرسالة عن قلقهم من مجموعة من التحديات المتعلقة بتطوير الذكاء الاصطناعي، مثل تعميق الفجوات الاجتماعية والاقتصادية، وانتشار المعلومات الخاطئة، وفقدان السيطرة على الأنظمة الذكية المستقلة، التي قد تتسبب في عواقب خطيرة مثل انقراض الإنسانية.

انتقدت الرسالة شركات الذكاء الاصطناعي التي تمتلك “حوافز مالية قوية” للمضي قدمًا في عمليات التطوير دون نشر المعلومات حول إجراءات الحماية التي تطبقها ومستويات الخطر المرتبطة بالتطوير.

تم ذكر في الرسالة: “نظن أن الاعتماد على مبادرة الشركات الخاصة في مشاركة هذه المعلومات ليس مجديًا”.

حذر الموظفون من اتفاقيات السرية التي تفرضها الشركات عليهم بشكل صارم، والتي تقيد حرية التعبير عن مخاوفهم. أكدوا دور الموظفين السابقين والحاليين في كشف هذه الأخطار، خاصة في غياب رقابة حكومية فعالة على تلك المؤسسات وفق تعبيرهم.

وتدعو الرسالة شركات الذكاء الاصطناعي إلى ضمان الحماية الكافية للموظفين الذين يبلغون عن المخاطر المرتبطة بتطوير التكنولوجيا، وتجنب فرض قيود تمنع تقديم الانتقادات البناءة، وتوفير آلية موثوقة لحماية هوية الموظفين الذين ينقلون مخاوفهم إلى الإدارة والهيئات التنظيمية والمنظمات ذات الصلة، مع ضمان سرية المعلومات التجارية.

طالب الموظفون أيضًا الشركات ذات الصلة بعدم اتخاذ إجراءات انتقامية ضد الموظفين الذين يكشفون بشكل علني معلومات سرية حول المخاطر المتعلقة بتطوير الذكاء الاصطناعي بعد فشل جميع السبل الأخرى.

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


شروط التعليق :

عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.