أثار خطاب صدر مؤخرًا يدعو إلى وقف تطوير الذكاء الاصطناعي (AI) مخاوف بين الخبراء، بما في ذلك اليون ماسك، الرئيس التنفيذي لشركة تسلا Tesla ومالك تويتر Twitter. حثت الرسالة مختبرات الذكاء الاصطناعي على وقف تطوير أقوى أنظمتها لمدة ستة أشهر لفهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضلوتحتوي الرسالة على أكثر من 27000 توقيع
يشعر الخبراء بالقلق من أن أحدث الأنظمة، مثل GPT-4، التي أدخلتها OpenAI،من الممكن أن تسبب ضررًا للمجتمع. حيث إنهم يعتقدون أن الأنظمة المستقبلية ستكون أكثر خطورة معبرين " لقد وقعت بعض هذه المخاطر بالفعل، والبعض الآخر قد يظهر أثره بعد عدة اشهر او سنوات ولربما يكون البعض الآخر مجرد افتراضات" و تسلط الرسالة الضوء على القلق المتزايد بين الخبراء بشأن المخاطر المحتملة للذكاء الاصطناعي واحتمال تراجع التحكم البشري.
يعبر الدكتور يوشوا بنجيو ، برفسور و باحث في جامعة مونتريال للذكاء الاصطناعي، من بين أهم من وقعوا الرسالة والذي أمضى العقود الأربعة الماضية في تطوير التكنولوجيا التي تقود أنظمة مثل GPT-4. ان الشبكات العصبية أوالنماذج اللغوية الكبيرة، هي أنظمة رياضية تتعلم المهارات من خلال تحليل البياناتوقد بدأت شركات مثل Google، Microsoft وOpenAI في بناء شبكات عصبيةتتولد من كميات هائلة من النصوص الرقمية تسمى نماذج اللغات الكبيرة (L.L.M.s). يمكن أن تولد هذه الأنظمة معلومات غير صادقة ومنحازة وسامة، مثل "الهلوسة".
تشمل المخاطر قصيرة المدى المعلومات المضللة، حيث تقدم هذه الأنظمة المعلومات بما يبدو وكأنه قرار قطعي ومن الممكن ان يكون ذا انحياز غير أخلاقي حيث انه مبني على مجموعة من البيانات التي لا يمكننا التنبؤ بجودتها وصحتها وقد تكون قاتلة للوظائف حيث تقر شركة OpenAI بأنها يمكن أن تحل محل بعض العاملين،بما في ذلك الأشخاص الذين يديرون المحتوى على الإنترنت. قدرت ورقة بحثية أعدها باحثو OpenAI أن 80٪ من القوة العاملة في الولايات المتحدة يمكن أن تتأثر بنسبة 10٪ على الأقل من مهام عملهم بـ LLMs وأن 19٪ من العمال قد يرون أن 50٪ على الأقل من مهامهم قد تأثرت.
وتشمل المخاطر طويلة المدى فقدان السيطرة، حيث غالبًا ما تتعلم أنظمة الذكاء الاصطناعي سلوكًا غير متوقع من الكميات الهائلة من البيانات التي تحللها.
الذكاء الاصطناعي سلاح قاتل اذا لم يتم توظيفه وحوكمة انظمته من خلال تقييم المخاطر و معالجتها و تفعيل دور الالتزام بالقوانين المنظمة بداءً من الفرد، المؤسسات وحتى الحكومات و من المتوقع ان يسبب في ما يقال عنه بتسمم البيانات وبناء احكام غير عادلة تنحاز لمنطق البيانات والذي لا يمكنه تحليل السلوكيات المرتبطة بهذه البيانات و تحديد صحتها مما سيؤثر علي المجتمعات سلباً ان لم يتم حوكمته ومراقبته من خلال خطوط دفاعية مصممة بدقة داخل هذه الأنظمة على ان يقودها نموذج بشري مركزي للتحكم فيها لمنع الانحياز في صنع القرارت و قياس جودتها خصوصا فيما يتعلق بالسلوكيات التي لا يمكن للأنظمة تحكيمها في صنع القرارات.