نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
هل يُفقدنا الذكاء الاصطناعي قدرتنا على اتخاذ القرار؟ - تكنو بلس, اليوم الخميس 1 مايو 2025 08:06 صباحاً
منذ الإطلاق الواسع لأداة "تشات جي بي تي" في عام 2023، بدأت معظم المؤسسات بتجربة استخدام الذكاء الاصطناعي التوليديّ بدرجات متفاوتة. وقد بيّنت دراسة حديثة صادرة عن كلية الإدارة الأوروبية (ESMT) في برلين أن الذكاء الاصطناعي يمكن أن يُحسّن من كفاءة وفاعلية الأعمال، لكن المبالغة في الاعتماد عليه قد تضعف القدرات البشرية على اتخاذ القرار.
ديناميكيات تؤجج الإفراط في استخدام الذكاء الاصطناعي
تشير الدراسة إلى أن بعض العوامل التنظيمية في داخل الشركات تؤدي إلى اعتماد مفرط على أدوات الذكاء الاصطناعي في عملية اتخاذ القرار، خاصةً في بيئات العمل التي تشهد مستويات عالية من التفويض الإداري، إذ وجد الباحثون أن المديرين يعاقبون الموظفين، في أغلب الأحيان، إذا خالفوا توصيات الذكاء الاصطناعي، خصوصاً عند اتخاذهم قرارات غير موفّقة.
هذا النمط من العقاب يدفع الموظفين إلى مواءمة قراراتهم بشكل مفرط مع توصيات الذكاء الاصطناعي، حتى لو كانوا يملكون معرفة ضمنية أو حُكمًا مهنيًا مخالفًا. ويؤدي هذا التوجه على المدى الطويل إلى نتائج دون المستوى المطلوب.
ويُشير الباحثون إلى أن المشكلة لا تكمن في القدرات التقنية للذكاء الاصطناعي بحد ذاتها، بل في الحوافز السلوكية والتنظيمية التي تُشكل طريقة استخدام هذه الأدوات في داخل المؤسسات.

صورة تعبيرية
كيف يمكن تحسين هذا الواقع؟
من أجل الاستفادة من الذكاء الاصطناعي من دون التضحية بالقدرات البشرية، تقترح الدراسة إعادة النظر في كيفية اتخاذ القرارات ومتابعتها في داخل المؤسسات. ويكمن الحلّ في تمكين المديرين من تقييم منطق القرارات التي تخالف توصيات الذكاء الاصطناعي، خصوصاً عندما تكون هذه القرارات مدعومة بمعرفة ضمنيّة أو خبرة بشريّة تصعُب نمذجتها.
كذلك تدعو الدراسة إلى إصلاح نظم الحوافز في داخل المؤسسات، إذ يجب ألا يُعاقب الموظفون على استخدام حكمهم الشخصيّ بدلاً من الاعتماد الأعمى على الذكاء الاصطناعي، بل ينبغي أن تكون المكافآت مرتبطة بجودة القرار نفسه لا بنتيجته فقط.
ويحذّر الباحثون من أن الحوافز التي تكرّس الاتّباع الأعمى للذكاء الاصطناعي يمكن أن تؤدي إلى اعتمادية مفرطة وتدهور جودة اتخاذ القرار.
العامل البشري والتدريب الإداري
تسلّط الدراسة الضوء على ضرورة تدريب المديرين لاكتشاف التحيّزات التي قد تجعلهم يفضّلون قرارات الآلة على قرارات البشر. في كثير من الأحيان، يكون تفضيل الذكاء الاصطناعي آلية غير واعية لتفادي المسؤولية أو اللوم. ولذلك، يجب أن يكون لدى المديرين وعي بحدود الذكاء الاصطناعي ومعرفة قيمة الحكم البشري في المواقف المعقدة أو الغامضة.
ولتحقيق ذلك، توصي الدراسة بوضع سياسات وإرشادات تنظيمية واضحة تساعد المديرين على معرفة متى وكيف يمكن تجاوز توصيات الذكاء الاصطناعي، مع وجود أطر قابلة للمراجعة، تضمن توازنًا بين المساءلة والثقة في الخبرة البشرية.
نحو شراكة فعّالة بين الإنسان والآلة
الغاية النهائية، بحسب الباحثين، هي بناء نظم وهياكل تنظيمية تُعزّز التكامل الفعّال بين الإنسان والآلة. يجب أن تُتاح للمختصّين فرص حقيقية لإدخال خبراتهم ومعلوماتهم الدقيقة في النظام، بل حتى لتعديل توصيات الذكاء الاصطناعي عندما تدعو الحاجة.
فالهدف من دمج الذكاء الاصطناعي في عمليات اتخاذ القرار يجب أن يكون تعزيز قدرات الموظفين وليس استبدالهم. أما السيناريو الأسوأ، فهو حين تتحول هذه الأدوات من وسائل دعم إلى قيود تُفقد الإنسان سلطته ودوره الفعّال.
تختم الدراسة بالتأكيد على أهمية عدم التركيز فقط على القدرات التقنية للذكاء الاصطناعي، بل النظر بعناية في العوامل السلوكية والتنظيمية التي تؤثر في استخدامه. فالإفراط في الاعتماد على الذكاء الاصطناعي يمكن أن يضعف مهاراتنا البشرية، وقد يُقصي الخبراء في الفرق العاملة، إذا ما اعتمد المديرون عليه بشكل أعمى. ولذا، فإن إيجاد توازن حقيقي بين قدرات الإنسان والآلة بات ضرورة ملحّة في عصر الذكاء الاصطناعي.
0 تعليق