- Get link
- X
- Other Apps
10 اسباب لماذا يحذر العاملون في الذكاء الاصطناعي ذويهم من استخدامه؟
كشف تقرير نشرته "غارديان" عن انعدام ثقة العاملين في قطاع الذكاء الاصطناعي، وتحديدا تدقيق المعلومات الناتجة عن النماذج في تلك النماذج، وأشار أيضا لكونهم يحذرون ذويهم من استخدام هذه الأدوات.
ويعود السبب في ذلك لمعرفتهم بخبايا آليات تقييم نتائج الذكاء الاصطناعي والنتائج الأولية التي تظهر للمستخدمين، إذ إن غالبية المشاركين في التقرير يعملون في تقييم نتائج الذكاء الاصطناعي ومراجعتها.
إن تحذير العاملين في مجال الذكاء الاصطناعي (AI) لأسرهم وأصدقائهم من استخدامه يعكس فهماً عميقاً للمخاطر الكامنة التي قد لا يدركها المستخدم العادي. هؤلاء الخبراء يرون "ما behind الكواليس" ويعرفون حدود التقنية وعيوبها.
فيما يلي 10 أسباب رئيسية وراء هذه التحذيرات:
1. فقدان الخصوصية والمراقبة المستمرة:
يعلم المطورون أن العديد من أنظمة الذكاء الاصطناعي، خاصة المجانية، تعتمد على بيانات المستخدمين للتدريب والتحسين. المحادثات والاستفسارات والبيانات الشخصية قد يتم تخزينها وتحليلها، مما يخلق سجلاً رقمياً دائمًا يمكن اختراقه أو استخدامه لأغراض تجارية أو حتى مراقبته من قبل الحكومات.
2. التلاعب والخوارزميات الإدمانية:
تصمم الخوارزميات خصيصاً للحفاظ على تفاعل المستخدم لأطول فترة ممكنة. يعرف المطورون كيف يمكن توجيه المحتوى والإعلانات والتوصيات للتأثير على آراء المستخدم وسلوكه وشرائه، مما يؤدي إلى إنشاء غرف صدى فكرية ويقوض التفكير النقدي المستقل.
3. انتشار المعلومات المضللة (Misinformation) بذكاء:
يمكن للذكاء الاصطناعي توليد نصوص وتسجيلات صوتية ومرئية (Deepfakes) واقعية بشكل مخيف. الخبراء يخشون من استخدام هذه التقنية لخلق ونشر أخبار مزيفة وحملات تضليلية مؤثرة، مما يهدد الاستقرار الاجتماعي وصحة الديمقراطيات.
4. اعتمادية المعرفية وتآكل المهارات العقلية:
مع الاعتماد على الذكاء الاصطناعي للإجابة على الأسئلة وكتابة النصوص وحل المشكلات، يحذر المطورون من أن المهارات البشرية الأساسية مثل البحث النقدي والكتابة الإبداعية والتحليل العميق قد تبدأ في التدهور لدى الأجيال القادمة.
5. التحيز الخوارزمي المدمج:
يعلم العاملون في المجال أن أنظمة الذكاء الاصطناعي تُدرب على بيانات من العالم الحقيقي، الذي يحتوي على تحيزات بشرية (عرقية، جنسانية، طبقية... إلخ). نتيجة لذلك، يمكن لهذه الأنظمة إعادة إنتاج وتضخيم هذه التحيزات بشكل آلي، مما يؤدي إلى تمييز في مجالات مثل التوظيف أو القروض أو العدالة الجنائية.
6. عدم الموثوقية والأخطاء الخفية:
الذكاء الاصطناعي يمكن أن "يهلوس" (يقدم معلومات خاطئة بثقة كبيرة) أو يعطي إجابات غير دقيقة دون أن ينبه المستخدم. الخبراء يدركون أن النموذج لا "يفهم" الحقائق بالمعنى البشري، وبالتالي لا يمكن الوثوق به في المواقف التي تتطلب دقةً مطلقة (مثل المشورة الطبية أو القانونية).
7. مخاطر الأمن السيبراني:
يمكن للذكاء الاصطناعي أن يكون سلاحاً ذا حدين في مجال الأمن. فبينما يمكن استخدامه لتعزيز الحماية، يمكن أيضاً للمخترقين استخدامه لتطوير هجمات إلكترونية أكثر تطوراً، مثل كتابة شفرات ضارة معقدة أو التصيد الاحتيالي (Phishing) مخصص ومتقن يصعب اكتشافه.
8. التأثير السلبي على الصحة العقلية والعلاقات الاجتماعية:
التفاعل المستمر مع وكلاء ذكاء اصطناعي (كصديق افتراضي أو شريك عاطفي) قد يخلق شعوراً زائفاً بالرفقة. يحذر الخبراء من أن هذا قد يؤدي إلى العزلة الاجتماعية على المدى الطويل، حيث يتم استبدال العلاقات البشرية الحقيقية المعقدة بعلاقات مبسطة وآلية.
9. الافتقار إلى التعاطف والإدراك البشري الحقيقي:
بغض النظر عن مدى تقدم الذكاء الاصطناعي في محاكاة المحادثة، فهو يفتقر إلى التعاطف الحقيقي والوعي والفهم الإنساني. الاعتماد عليه للحصول على الدعم العاطفي أو النصح في أمور شخصية حساسة يمكن أن يكون خطيراً، حيث أن استجاباته تستند إلى إحصائيات وليست مشاعر حقيقية.
10. عدم الوضوح والمساءلة (مشكلة الصندوق الأسود):
العديد من نماذج الذكاء الاصطناعي المعقدة هي "صناديق سوداء" – حتى مطوروها لا يستطيعون تفسير سبب اتخاذها لقرار معين بالضبط. هذا يخلق أزمة مساءلة: من المسؤول عندما يتسبب قرار اتخذه الذكاء الاصطناعي في ضرر؟ (مثل خطأ طبي أو حادث لسيارة ذاتية القيادة). الخبراء يدركون هذا الغموض الخطير.
في الختام، تحذيرات العاملين في المجال لا تعني رفض التكنولوجيا تماماً، ولكنها دعوة للاستخدام الواعي والحذر. إنهم يوصون بعدم الثقة العمياء في الذكاء الاصطناعي، والتحقق من معلوماته من مصادر أخرى، والحفاظ على الخصوصية، وعدم التخلي عن الحكم البشري والمسؤولية الأخلاقية للآلة.