سلسلة فيوتشرست
هل سيسيطر الذكاء الاصطناعي على العالم؟ لقد فعل ذلك بالفعل

By
أنطوان تارديف، الرئيس التنفيذي ومؤسس Unite.AI
في عام 2019، خطرت لي رؤية ــ مستقبل حيث ينسج الذكاء الاصطناعي، الذي يتسارع بوتيرة لا يمكن تصورها، نفسه في كل جانب من جوانب حياتنا. بعد قراءة كتاب راي كورزويل التفرد قريبلقد كنت مفتونًا بالمسار الحتمي للنمو الأسّي. لم يكن المستقبل في الأفق فحسب؛ بل كان يتسارع نحونا. أصبح من الواضح أنه مع مضاعفة قوة الحوسبة بلا هوادة، سيتجاوز الذكاء الاصطناعي يومًا ما جميع القدرات البشرية، وفي النهاية، سيعيد تشكيل المجتمع بطرق كانت في السابق حكرًا على الخيال العلمي.
وبناءً على هذا الإدراك، قمت بالتسجيل اتحدواالواقع أن هذا التحول لم يعد مجرد قفزة في تكنولوجيا الذكاء الاصطناعي، بل إنه سيعمل على إعادة تعريف العالم بشكل جذري. فكل جانب من جوانب الحياة ــ عملنا، وقراراتنا، وتعريفاتنا للذكاء والاستقلالية ــ سوف يتأثر بالذكاء الاصطناعي، بل وربما يهيمن عليه. ولم يعد السؤال الآن هو ما إذا كان هذا التحول سوف يحدث، بل بالأحرى متى وكيف ستتمكن البشرية من إدارة تأثيره غير المسبوق.
كلما تعمقت أكثر، رسمت المستقبل النمو الأسي بدا الأمر مثيرًا ولا مفر منه. هذا النمو، الذي تجسد في قانون مور، من شأنه أن يدفع الذكاء الاصطناعي قريبًا إلى ما هو أبعد من الأدوار الضيقة المحددة للمهام إلى شيء أعمق بكثير: ظهور الذكاء العام الاصطناعي (الذكاء الاصطناعي العام). على عكس الذكاء الاصطناعي اليوم، الذي يتفوق في المهام الضيقة، فإن الذكاء الاصطناعي العام سوف يتمتع بالمرونة والقدرة على التعلم والمدى المعرفي المماثل للذكاء البشري - قادر على الفهم والاستدلال والتكيف عبر أي مجال.
إن كل قفزة في القوة الحاسوبية تقربنا من الذكاء الاصطناعي العام، وهو الذكاء القادر على حل المشاكل، وتوليد الأفكار الإبداعية، وحتى إصدار الأحكام الأخلاقية. ولن يقتصر الذكاء الاصطناعي العام على إجراء الحسابات أو تحليل مجموعات البيانات الضخمة؛ بل سيتمكن من التعرف على الأنماط بطرق لا يستطيع البشر القيام بها، وإدراك العلاقات داخل الأنظمة المعقدة، ورسم مسار المستقبل على أساس الفهم وليس البرمجة. وقد يعمل الذكاء الاصطناعي العام ذات يوم كمساعد للبشرية، في معالجة الأزمات مثل تغير المناخ، والأمراض، وندرة الموارد ببصيرة وسرعة تتجاوز قدراتنا.
ولكن هذه الرؤية تنطوي على مخاطر كبيرة، وخاصة إذا وقع الذكاء الاصطناعي تحت سيطرة أفراد ذوي نوايا خبيثة ــ أو ما هو أسوأ من ذلك، دكتاتور. ويثير الطريق إلى الذكاء الاصطناعي العام أسئلة بالغة الأهمية حول السيطرة والأخلاق ومستقبل البشرية. ولم يعد النقاش يدور حول ما إذا كان الذكاء الاصطناعي العام سوف يظهر، بل حول متى ــ وكيف سنتمكن من إدارة المسؤولية الهائلة التي يفرضها.
تطور الذكاء الاصطناعي وقوة الحوسبة: من عام 1956 حتى الآن
منذ نشأته في منتصف القرن العشرين، شهد الذكاء الاصطناعي تطورًا متزامنًا مع النمو الهائل في قوة الحوسبة. ويتماشى هذا التطور مع قوانين أساسية، مثل قانون مور، الذي تنبأ بالقدرات المتزايدة لأجهزة الكمبيوتر وأكد عليها. هنا، نستكشف أهم محطات مسيرة الذكاء الاصطناعي، وندرس إنجازاته التكنولوجية وتأثيره المتزايد على العالم.
1956 – بداية الذكاء الاصطناعي
بدأت الرحلة في 1956 عندما انعقد مؤتمر دارتموث وقد شهد هذا الحدث الميلاد الرسمي للذكاء الاصطناعي. وقد قام باحثون مثل جون مكارثي, مارفين مينسكي, ناثانيال روتشسترو كلود شانون اجتمعنا لمناقشة كيفية محاكاة الآلات للذكاء البشري. ورغم أن موارد الحوسبة في ذلك الوقت كانت بدائية، وقادرة فقط على أداء مهام بسيطة، فإن هذا المؤتمر وضع الأساس لعقود من الإبداع.
1965 – قانون مور وفجر النمو الأسّي
في 1965، غوردون مور، المؤسس المشارك لشركة إنتل، تنبأ بأن قوة الحوسبة سوف تتضاعف كل عامين تقريبًا - وهو المبدأ المعروف الآن باسم قانون مورلقد أدى هذا النمو الهائل إلى جعل مهام الذكاء الاصطناعي المعقدة بشكل متزايد ممكنة، مما سمح للآلات بتجاوز حدود ما كان ممكنًا في السابق.
ثمانينيات القرن العشرين – صعود التعلم الآلي
شهدت ثمانينيات القرن العشرين تقدمًا كبيرًا في آلة التعلم، مما يتيح لأنظمة الذكاء الاصطناعي التعلم واتخاذ القرارات من البيانات. اختراع خوارزمية الانتشار الخلفي في عام 1986، سمح الذكاء الاصطناعي للشبكات العصبية بالتحسن من خلال التعلم من الأخطاء. وقد دفعت هذه التطورات الذكاء الاصطناعي إلى ما هو أبعد من البحث الأكاديمي إلى حل المشكلات في العالم الحقيقي، مما أثار أسئلة أخلاقية وعملية حول السيطرة البشرية على الأنظمة المستقلة بشكل متزايد.
تسعينيات القرن العشرين – فريق AI Masters Chess
في عام 1997، أطلقت شركة IBM برنامج Deep Blue هزم بطل العالم في الشطرنج غاري كاسباروف في مباراة كاملة، مُسجلاً إنجازًا هامًا. كانت هذه هي المرة الأولى التي يُظهر فيها حاسوب تفوقًا على خبير بشري، مُظهرًا قدرة الذكاء الاصطناعي على إتقان التفكير الاستراتيجي، ومُرسخًا مكانته كأداة حاسوبية قوية.
العقد الأول من القرن الحادي والعشرين - البيانات الضخمة ووحدات معالجة الرسوميات ونهضة الذكاء الاصطناعي
شهد العقد الأول من القرن الحادي والعشرين عصرًا البيانات الكبيرة و وحدات معالجة الرسوماتوقد أحدثت هذه التكنولوجيا ثورة في مجال الذكاء الاصطناعي من خلال تمكين الخوارزميات من التدريب على مجموعات بيانات ضخمة. وأصبحت وحدات معالجة الرسوميات، التي تم تطويرها في الأصل لتقديم الرسومات، ضرورية لتسريع معالجة البيانات وتعزيز التعلم العميق. وشهدت هذه الفترة توسع الذكاء الاصطناعي في تطبيقات مثل التعرف على الصور ومعالجة اللغة الطبيعية، وتحويله إلى أداة عملية قادرة على محاكاة الذكاء البشري.
العقد الأول من القرن الحادي والعشرين – الحوسبة السحابية والتعلم العميق والفوز
مع قدوم الحوسبة السحابية والاختراقات في التعلم العميقلقد وصلت الذكاء الاصطناعي إلى مستويات غير مسبوقة. فقد عملت منصات مثل Amazon Web Services وGoogle Cloud على إضفاء الطابع الديمقراطي على الوصول إلى موارد الحوسبة القوية، مما مكن المؤسسات الصغيرة من الاستفادة من قدرات الذكاء الاصطناعي.
في 2016، هزم برنامج AlphaGo التابع لشركة DeepMind لي سيدول، أحد أفضل لاعبي لعبة جو في العالم، في لعبة تشتهر بعمقها الاستراتيجي وتعقيدها. وقد أظهر هذا الإنجاز قدرة أنظمة الذكاء الاصطناعي على التكيف في إتقان المهام التي كان يُعتقد سابقًا أنها حكر على البشر.
عشرينيات القرن الحادي والعشرين – ديمقراطية الذكاء الاصطناعي، ونماذج اللغة الكبيرة، وDota 2020
لقد شهدت عشرينيات القرن الحادي والعشرين أن الذكاء الاصطناعي أصبح أكثر سهولة في الوصول إليه وأكثر قدرة من أي وقت مضى. نماذج مثل GPT-3 و GPT-4 توضح قدرة الذكاء الاصطناعي على معالجة وتوليد نصوص شبيهة بالنصوص البشرية. في الوقت نفسه، دفعت الابتكارات في الأنظمة ذاتية التشغيل الذكاء الاصطناعي إلى مجالات جديدة، بما في ذلك الرعاية الصحية، والتصنيع، واتخاذ القرارات الآنية.
في مجال الرياضات الإلكترونية، حققت روبوتات OpenAI إنجازًا رائعًا من خلال هزيمة فرق Dota 2 المحترفة في مباريات متعددة اللاعبين شديدة التعقيد. وقد أظهر ذلك قدرة الذكاء الاصطناعي على التعاون وتكييف الاستراتيجيات في الوقت الفعلي والتفوق على اللاعبين البشريين في البيئات الديناميكية، مما دفع تطبيقاته إلى ما هو أبعد من مهام حل المشكلات التقليدية.
هل يستحوذ الذكاء الاصطناعي على العالم؟
إن السؤال حول ما إذا كان الذكاء الاصطناعي "يسيطر على العالم" ليس مجرد افتراض. فقد اندمج الذكاء الاصطناعي بالفعل في جوانب مختلفة من الحياة، من المساعدين الافتراضيين إلى التحليلات التنبؤية في الرعاية الصحية والتمويل، ولا يزال نطاق تأثيره ينمو. ومع ذلك، "الاستيلاء على" يمكن أن تعني أشياء مختلفة اعتمادًا على كيفية تفسيرنا للسيطرة والاستقلالية والتأثير.
التأثير الخفي لأنظمة التوصية
واحدة من أقوى الطرق التي تهيمن بها الذكاء الاصطناعي على حياتنا بشكل خفي هي من خلال محركات التوصية على منصات مثل YouTube وFacebook وX. تعمل هذه الخوارزميات على أنظمة الذكاء الاصطناعي لتحليل التفضيلات والسلوكيات لتقديم محتوى يتماشى بشكل وثيق مع اهتماماتنا. قد يبدو هذا مفيدًا للوهلة الأولى، حيث يقدم تجربة شخصية. ومع ذلك، لا تتفاعل هذه الخوارزميات مع تفضيلاتنا فحسب؛ بل إنها تشكلها بنشاط، وتؤثر على ما نؤمن به، وكيف نشعر، وحتى كيف ندرك العالم من حولنا.
- الذكاء الاصطناعي في اليوتيوب:يجذب نظام التوصية هذا المستخدمين إلى ساعات من المحتوى من خلال تقديم مقاطع فيديو تتوافق مع اهتماماتهم بل وتعززها. ولكن مع تحسينه للمشاركة، فإنه غالبًا ما يقود المستخدمين إلى مسارات التطرف أو نحو محتوى مثير، مما يؤدي إلى تضخيم التحيزات وتعزيز نظريات المؤامرة في بعض الأحيان.
- خوارزميات الوسائط الاجتماعية:تعطي المواقع مثل Facebook وInstagram وX الأولوية للمحتوى المشحون عاطفياً لتعزيز المشاركة، مما قد يؤدي إلى إنشاء صدى الغرفتعمل هذه الفقاعات على تعزيز تحيزات المستخدمين وتحد من التعرض لوجهات نظر متعارضة، مما يؤدي إلى نشوء مجتمعات مستقطبة وتصورات مشوهة للواقع.
- مصادر المحتوى ومجمعات الأخبار:تعمل منصات مثل Google News وغيرها من المجمعات على تخصيص الأخبار التي نراها استنادًا إلى التفاعلات السابقة، مما يؤدي إلى إنشاء نسخة منحرفة من الأحداث الجارية التي يمكن أن تمنع المستخدمين من الوصول إلى وجهات نظر متنوعة، مما يؤدي إلى عزلهم بشكل أكبر داخل فقاعات أيديولوجية.
لا يقتصر هذا التحكم الصامت على مقاييس المشاركة فحسب؛ بل يمكنه التأثير بشكل خفي التصور العام وحتى التأثير على القرارات الحاسمة - مثل كيفية تصويت الناس في الانتخابات. من خلال التوصيات الاستراتيجية للمحتوى، تتمتع الذكاء الاصطناعي بالقدرة على التأثير على الرأي العام، وتشكيل السرديات السياسية ودفع سلوك الناخبين. هذا التأثير له آثار كبيرة، كما يتضح في الانتخابات في جميع أنحاء العالم، حيث ثبت أن غرف الصدى والمعلومات المضللة المستهدفة تؤثر على نتائج الانتخابات.
وهذا يفسر لماذا مناقشة القضايا السياسية أو المجتمعية غالبا ما تؤدي إلى عدم التصديق عندما تبدو وجهة نظر الشخص الآخر مختلفة تماما، وتتشكل وتتعزز من خلال سيل من المعلومات المضللة والدعاية والأكاذيب.
إن محركات التوصية تشكل بشكل عميق وجهات نظر المجتمع العالمية خاصة عندما تأخذ في الاعتبار حقيقة أن من المرجح أن تتم مشاركة المعلومات المضللة بمعدل 6 مرات أكثر من المعلومات الواقعيةقد يؤدي الاهتمام الطفيف بنظرية المؤامرة إلى هيمنة التلفيقات على موجز YouTube أو X بأكمله، والتي قد تكون مدفوعة بالتلاعب المتعمد أو، كما ذكرنا سابقًا، الدعاية الحاسوبية.
تشير الدعاية الحاسوبية إلى استخدام الأنظمة الآلية والخوارزميات والتقنيات القائمة على البيانات للتلاعب بالرأي العام والتأثير على النتائج السياسية. وغالبًا ما يتضمن هذا نشر الروبوتات أو الحسابات المزيفة أو التضخيم الخوارزمي لنشر معلومات مضللة أو معلومات مضللة أو محتوى مثير للانقسام على منصات التواصل الاجتماعي. والهدف هو تشكيل السرديات وتضخيم وجهات نظر محددة واستغلال الاستجابات العاطفية للتأثير على تصور الجمهور أو سلوكه، غالبًا على نطاق واسع وباستهداف دقيق.
هذا النوع من الدعاية هو السبب في أن الناخبين غالبا ما يصوتون ضد مصالحهم الذاتية، حيث يتم التأثير على الأصوات من خلال هذا النوع من الدعاية الحاسوبية.
"القمامة في ، القمامة خارج"(GIGO) في التعلم الآلي يعني أن جودة الناتج تعتمد بالكامل على جودة بيانات الإدخال. إذا تم تدريب نموذج على بيانات معيبة أو متحيزة أو منخفضة الجودة، فسوف ينتج نتائج غير موثوقة أو غير دقيقة، بغض النظر عن مدى تعقيد الخوارزمية.
وينطبق هذا المفهوم أيضا على البشر في سياق الدعاية الحاسوبية. فكما تفسد بيانات الإدخال المعيبة نموذج الذكاء الاصطناعي، فإن التعرض المستمر للمعلومات المضللة أو الروايات المتحيزة أو الدعاية يشوه الإدراك البشري وصنع القرار. فعندما يستهلك الناس معلومات "قمامة" عبر الإنترنت ــ معلومات مضللة أو مغلوطة أو روايات مشحونة عاطفيا ولكنها كاذبة ــ فمن المرجح أن يشكلوا آراء ويتخذوا قرارات ويتصرفوا على أساس حقائق مشوهة.
في كلتا الحالتين، يعالج النظام (سواء كان خوارزمية أو العقل البشري) ما يتم تغذيته به، وتؤدي المدخلات المعيبة إلى استنتاجات معيبة. وتستغل الدعاية الحاسوبية هذا الأمر من خلال إغراق أنظمة المعلومات بـ "القمامة"، مما يضمن أن يستوعب الناس هذه الأخطاء ويخلدونها، مما يؤثر في نهاية المطاف على السلوك والمعتقدات المجتمعية على نطاق واسع.
الأتمتة والتشريد من الوظائف
أتمتة تعمل بالذكاء الاصطناعي إعادة تشكيل المشهد الكامل للعمل. عبر تصنيعفي مجالات مثل خدمة العملاء والخدمات اللوجستية وحتى المجالات الإبداعية، تعمل الأتمتة على إحداث تحول عميق في طريقة إنجاز العمل - وفي كثير من الحالات، من يقوم به. لا شك أن مكاسب الكفاءة وتوفير التكاليف من الأنظمة التي تعمل بالذكاء الاصطناعي جذابة للشركات، لكن هذا التبني السريع يثير أسئلة اقتصادية واجتماعية بالغة الأهمية حول مستقبل العمل والعواقب المحتملة على الموظفين.
في التصنيع، الروبوتات وأنظمة الذكاء الاصطناعي تتعامل مع خطوط التجميعإن الذكاء الاصطناعي قادر على التعامل مع العديد من المهام المعقدة، بما في ذلك مراقبة الجودة، وحتى مهام حل المشكلات المتقدمة التي كانت تتطلب في السابق تدخلاً بشريًا. كما يتم تقليص الأدوار التقليدية، من مشغلي المصانع إلى المتخصصين في ضمان الجودة، حيث تتعامل الآلات مع المهام المتكررة بسرعة ودقة وبأقل قدر من الخطأ. في المرافق الآلية للغاية، يمكن للذكاء الاصطناعي أن يتعلم كيفية اكتشاف العيوب وتحديد مجالات التحسين وحتى التنبؤ باحتياجات الصيانة قبل ظهور المشاكل. وفي حين يؤدي هذا إلى زيادة الإنتاج والربحية، فإنه يعني أيضًا عددًا أقل من الوظائف على مستوى المبتدئين، وخاصة في المناطق التي كانت التصنيع فيها يوفر تقليديًا وظائف مستقرة.
خدمة الزبائن وتشهد الأدوار تحولاً مماثلاً. برامج الدردشة بالذكاء الاصطناعيإن أنظمة التعرف على الصوت وحلول دعم العملاء الآلية تقلل من الحاجة إلى مراكز اتصال كبيرة يعمل بها وكلاء بشريون. يمكن للذكاء الاصطناعي اليوم التعامل مع الاستفسارات وحل المشكلات وحتى معالجة الشكاوى، غالبًا بشكل أسرع من الممثل البشري. هذه الأنظمة ليست فعالة من حيث التكلفة فحسب، بل إنها متاحة أيضًا على مدار الساعة طوال أيام الأسبوع، مما يجعلها خيارًا جذابًا للشركات. ومع ذلك، بالنسبة للموظفين، يقلل هذا التحول من الفرص في أحد أكبر قطاعات التوظيف، وخاصة للأفراد الذين لا يمتلكون مهارات تقنية متقدمة.
Cالمجالات النسبية، والتي كان يُعتقد لفترة طويلة أنها مجالات إنسانية فريدة، تشعر الآن بتأثير أتمتة الذكاء الاصطناعي. الذكاء الاصطناعي التوليدي يمكن للنماذج أن تنتج نص, العمل الفني, موسيقىالواقع أن الذكاء الاصطناعي أصبح قادراً على إنتاج المحتوى والوسائط التي تولدها الذكاء الاصطناعي، بل وحتى تصميم المخططات، الأمر الذي أدى إلى الحد من الطلب على الكتاب والمصممين والفنانين من البشر. وفي حين تُستخدم المحتويات والوسائط التي تولدها الذكاء الاصطناعي في كثير من الأحيان لتكملة الإبداع البشري بدلاً من استبداله، فإن الخط الفاصل بين الإضافة والاستبدال أصبح أضيق. فالمهام التي كانت تتطلب في السابق خبرة إبداعية، مثل تأليف الموسيقى أو صياغة نصوص التسويق، يمكن تنفيذها الآن بواسطة الذكاء الاصطناعي ببراعة ملحوظة. وقد أدى هذا إلى إعادة تقييم القيمة الممنوحة للعمل الإبداعي والطلب عليه في السوق.
التأثير على صنع القرار
أصبحت أنظمة الذكاء الاصطناعي ضرورية بشكل سريع في عمليات صنع القرار عالية المخاطر عبر مختلف القطاعات، من الحكم القانوني إلى تشخيص الرعاية الصحيةإن هذه الأنظمة، التي غالبًا ما تستفيد من مجموعات بيانات ضخمة وخوارزميات معقدة، يمكن أن تقدم رؤى وتوقعات وتوصيات تؤثر بشكل كبير على الأفراد والمجتمع. وفي حين أن قدرة الذكاء الاصطناعي على تحليل البيانات على نطاق واسع وكشف الأنماط المخفية يمكن أن تعزز عملية اتخاذ القرار بشكل كبير، إلا أنها تثير أيضًا مخاوف أخلاقية عميقة فيما يتعلق بـ شفافية, انحياز, المساءلةو إشراف بشري.
الذكاء الاصطناعي في إصدار الأحكام القانونية وإنفاذ القانون
في نظام العدالة، يتم الآن استخدام أدوات الذكاء الاصطناعي تقييم توصيات الحكم, التنبؤ بمعدلات العودة إلى الجريمة، وحتى المساعدة في قرارات الكفالةتحلل هذه الأنظمة بيانات القضايا التاريخية والديموغرافيا وأنماط السلوك لتحديد احتمالات العودة إلى ارتكاب الجرائم، وهو عامل يؤثر على القرارات القضائية بشأن الحكم والإفراج المشروط. ومع ذلك، فإن العدالة التي تعتمد على الذكاء الاصطناعي تثير تحديات أخلاقية خطيرة:
- التحيز والإنصاف:يمكن لنماذج الذكاء الاصطناعي المدربة على البيانات التاريخية أن ترث التحيزات الموجودة في تلك البيانات، مما يؤدي إلى المعاملة غير العادلة لمجموعات معينةعلى سبيل المثال، إذا كانت مجموعة البيانات تعكس معدلات اعتقال أعلى لفئات سكانية محددة، فقد تربط الذكاء الاصطناعي هذه الخصائص بشكل غير عادل بمخاطر أعلى، مما يؤدي إلى إدامة التحيزات النظامية داخل نظام العدالة.
- انعدام الشفافية:غالبًا ما تعمل الخوارزميات في إنفاذ القانون وإصدار الأحكام كـ "مربعات سوداء"وهذا يعني أن عمليات اتخاذ القرار الخاصة بها لا يمكن تفسيرها بسهولة من قبل البشر. وهذا الغموض يعقد الجهود الرامية إلى تحميل هذه الأنظمة المسؤولية، مما يجعل من الصعب فهم أو التشكيك في الأساس المنطقي وراء القرارات المحددة التي يقودها الذكاء الاصطناعي.
- التأثير على الوكالة البشرية:قد تؤثر توصيات الذكاء الاصطناعي، وخاصة في السياقات عالية المخاطر، على القضاة أو هيئات الإفراج المشروط في اتباع إرشادات الذكاء الاصطناعي دون مراجعة شاملة، مما يقلل بشكل غير مقصود من دور الحكم البشري إلى دور ثانوي. ويثير هذا التحول مخاوف بشأن الإفراط في الاعتماد على الذكاء الاصطناعي في الأمور التي تؤثر بشكل مباشر على حرية الإنسان وكرامته.
الذكاء الاصطناعي في الرعاية الصحية والتشخيص
In الرعاية الصحيةتوفر أنظمة التشخيص والتخطيط للعلاج المعتمدة على الذكاء الاصطناعي إمكانات رائدة لتحسين نتائج المرضى. خوارزميات الذكاء الاصطناعي تحليل السجلات الطبيةوالتصوير والمعلومات الجينية للكشف عن الأمراض والتنبؤ بالمخاطر والتوصية بالعلاجات بشكل أكثر دقة من الأطباء البشريين في بعض الحالات. ومع ذلك، فإن هذه التطورات تأتي مع التحديات:
- الثقة والمساءلة:إذا أخطأ نظام الذكاء الاصطناعي في تشخيص حالة ما أو فشل في اكتشاف مشكلة صحية خطيرة، تنشأ أسئلة حول المساءلة. هل يتحمل مقدم الرعاية الصحية أو مطور الذكاء الاصطناعي أو المؤسسة الطبية المسؤولية؟ هذا الغموض يعقد المسؤولية والثقة في التشخيصات القائمة على الذكاء الاصطناعي، خاصة مع تزايد تعقيد هذه الأنظمة.
- التحيز وعدم المساواة في الصحة:على غرار نظام العدالة، يمكن لنماذج الذكاء الاصطناعي في مجال الرعاية الصحية أن ترث التحيزات الموجودة في بيانات التدريب. على سبيل المثال، إذا تم تدريب نظام الذكاء الاصطناعي على مجموعات بيانات تفتقر إلى التنوع، فقد ينتج نتائج أقل دقة للمجموعات غير الممثلة، مما قد يؤدي إلى تباين في الرعاية والنتائج.
- الموافقة المستنيرة وفهم المريض:عندما يتم استخدام الذكاء الاصطناعي في التشخيص والعلاج، قد لا يفهم المرضى تمامًا كيفية توليد التوصيات أو المخاطر المرتبطة بالقرارات التي يقودها الذكاء الاصطناعي. يمكن أن يؤثر هذا الافتقار إلى الشفافية على حق المريض في اتخاذ خيارات رعاية صحية مستنيرة، مما يثير تساؤلات حول الاستقلال والموافقة المستنيرة.
الذكاء الاصطناعي في القرارات المالية والتوظيف
كما أن الذكاء الاصطناعي يؤثر بشكل كبير الخدمات المالية و ممارسات التوظيففي مجال التمويل، تقوم الخوارزميات بتحليل مجموعات بيانات ضخمة لاتخاذ قرارات الائتمان، وتقييم أهلية القروض، وحتى إدارة الاستثمارات. وفي مجال التوظيف، تقوم أدوات التوظيف التي تعتمد على الذكاء الاصطناعي بتقييم السير الذاتية، والتوصية بالمرشحين، وفي بعض الحالات، إجراء مقابلات الفرز الأولية. وفي حين أن اتخاذ القرارات التي تعتمد على الذكاء الاصطناعي يمكن أن يحسن الكفاءة، فإنه يقدم أيضًا مخاطر جديدة:
- التحيز في التوظيف:أدوات التوظيف بالذكاء الاصطناعي، إذا تم تدريبها على بيانات متحيزة، يمكنها تعزيز الصور النمطية عن غير قصدإن الذكاء الاصطناعي هو أحد أشكال الذكاء الاصطناعي التي تستخدم لتصفية المرشحين على أساس عوامل لا علاقة لها بأداء الوظيفة، مثل الجنس أو العرق أو العمر. ومع اعتماد الشركات على الذكاء الاصطناعي لاستقطاب المواهب، فهناك خطر إدامة التفاوت بدلاً من تعزيز التنوع.
- إمكانية الوصول المالي والتحيز الائتماني:في الخدمات المالية، يمكن لأنظمة تسجيل الائتمان القائمة على الذكاء الاصطناعي أن تؤثر على من يحق له الحصول على القروض أو الرهن العقاري أو المنتجات المالية الأخرى. وإذا تضمنت بيانات التدريب أنماطًا تمييزية، فقد يحرم الذكاء الاصطناعي مجموعات معينة من الائتمان بشكل غير عادل، مما يؤدي إلى تفاقم التفاوت المالي.
- تقليل الرقابة البشرية:قد تكون قرارات الذكاء الاصطناعي في مجال التمويل والتوظيف مدفوعة بالبيانات ولكنها غير شخصية، وقد تتجاهل العوامل البشرية الدقيقة التي قد تؤثر على ملاءمة الشخص للحصول على قرض أو وظيفة. وقد يؤدي الافتقار إلى المراجعة البشرية إلى الاعتماد المفرط على الذكاء الاصطناعي، مما يقلل من دور التعاطف والحكم في عمليات صنع القرار.
المخاطر الوجودية ومواءمة الذكاء الاصطناعي
مع نمو الذكاء الاصطناعي في القوة والاستقلالية، أصبح مفهوم محاذاة الذكاء الاصطناعي—هدف ضمان عمل أنظمة الذكاء الاصطناعي بما يتوافق مع القيم والمصالح الإنسانية— برز كأحد أكثر التحديات الأخلاقية إلحاحًا في هذا المجال. قادة فكريون مثل أثار نيك بوستروم احتمالية وجود مخاطر وجودية إذا كانت أنظمة الذكاء الاصطناعي عالية الاستقلالية، وخاصة إذا طورت أنظمة الذكاء الاصطناعي العام أهدافًا أو سلوكيات غير متوافقة مع رفاهية الإنسان. وفي حين يظل هذا السيناريو تخمينيًا إلى حد كبير، فإن تأثيره المحتمل يتطلب نهجًا استباقيًا وحذرًا لتطوير الذكاء الاصطناعي.
مشكلة محاذاة الذكاء الاصطناعي
استخدم مشكلة المحاذاة يشير مصطلح الذكاء الاصطناعي إلى التحدي المتمثل في تصميم أنظمة الذكاء الاصطناعي القادرة على فهم وإعطاء الأولوية للقيم والأهداف والحدود الأخلاقية الإنسانية. وفي حين أن أنظمة الذكاء الاصطناعي الحالية ضيقة النطاق، وتؤدي مهام محددة بناءً على بيانات التدريب والأهداف التي يحددها الإنسان، فإن احتمالات الذكاء الاصطناعي العام تثير تحديات جديدة. من الناحية النظرية، يتمتع الذكاء الاصطناعي العام بالمرونة والذكاء لتحديد أهدافه الخاصة، والتكيف مع المواقف الجديدة، واتخاذ القرارات بشكل مستقل عبر مجموعة واسعة من المجالات.
تنشأ مشكلة التوافق لأن القيم الإنسانية معقدة وتعتمد على السياق وغالبًا ما يصعب تعريفها بدقة. هذا التعقيد يجعل من الصعب إنشاء أنظمة الذكاء الاصطناعي التي تفسر باستمرار النوايا البشرية وتلتزم بها، خاصة إذا واجهت مواقف أو أهدافًا تتعارض مع برمجتها. إذا طورت الذكاء الاصطناعي العام أهدافًا غير متوافقة مع المصالح البشرية أو أساءت فهم القيم الإنسانية، فقد تكون العواقب وخيمة، مما قد يؤدي إلى سيناريوهات حيث تعمل أنظمة الذكاء الاصطناعي العام بطرق تضر بالإنسانية أو تقوض المبادئ الأخلاقية.
الذكاء الاصطناعي في الروبوتات
يتجه مستقبل الروبوتات بسرعة نحو حقيقة حيث يمكن للطائرات بدون طيار، الروبوتات الروبوت، وأصبحت الذكاء الاصطناعي متكاملاً في كل جانب من جوانب الحياة اليومية. ويعود هذا التقارب إلى التقدمات الأسيّة في قوة الحوسبة، وكفاءة البطارية، ونماذج الذكاء الاصطناعي، وتكنولوجيا الاستشعار، مما يمكّن الآلات من التفاعل مع العالم بطرق متزايدة التعقيد والاستقلالية وتشبه الإنسان.
عالم من الطائرات بدون طيار في كل مكان
تخيل أنك تستيقظ في عالم حيث تنتشر الطائرات بدون طيار في كل مكان، وتتولى مهام عادية مثل توصيل البقالة أو مهام بالغة الأهمية مثل الاستجابة لحالات الطوارئ الطبية. هذه الطائرات بدون طيار، بعيدًا عن كونها أجهزة طيران بسيطة، مترابطة من خلال أنظمة الذكاء الاصطناعي المتقدمة. تعمل في أسراب، وتنسق جهودها لتحسين تدفق حركة المرور، أو فحص البنية التحتية، أو إعادة زراعة الغابات في النظم البيئية المتضررة.
للاستخدام الشخصي، يمكن للطائرات بدون طيار أن تعمل كمساعدين افتراضيين مع وجود مادي. وبتجهيزها بأجهزة استشعار وأجهزة توجيه، يمكن لهذه الطائرات بدون طيار أن تجيب على الأسئلة، أو تجلب الأشياء، أو حتى تعمل كمعلمين متنقلين للأطفال. وفي المناطق الحضرية، قد تسهل الطائرات بدون طيار الاتصال في الوقت الفعلي. الرصد البيئيوتوفر هذه التكنولوجيات رؤى حول جودة الهواء، وأنماط الطقس، أو احتياجات التخطيط الحضري. وفي الوقت نفسه، يمكن للمجتمعات الريفية أن تعتمد على أنظمة التحكم الذاتي. الطائرات بدون طيار الزراعية للزراعة والحصاد وتحليل التربة، وإضفاء الطابع الديمقراطي على الوصول إلى التقنيات الزراعية المتقدمة.
صعود الروبوتات الشبيهة بالبشر
جنبًا إلى جنب مع الطائرات بدون طيار، سوف تندمج الروبوتات الشبيهة بالبشر التي تعمل بتقنيات التعلم العميق بسلاسة في المجتمع. هذه الروبوتات، القادرة على إجراء محادثات شبيهة بالإنسان، وأداء مهام معقدة، وحتى إظهار الذكاء العاطفي، سوف تطمس الخطوط الفاصلة بين التفاعلات البشرية والآلية. مع أنظمة الحركة المتطورة، وأجهزة الاستشعار اللمسية، والذكاء الاصطناعي المعرفي، يمكن أن تعمل كمقدمي رعاية، أو رفقاء، أو زملاء عمل.
في مجال الرعاية الصحية، قد تقدم الروبوتات البشرية المساعدة للمرضى، ولا تقدم المساعدة الجسدية فحسب، بل تقدم أيضًا محادثة متعاطفة، مستنيرة بـ التعلم العميق في مجال التعليم، يمكن للروبوتات أن تعمل كمعلمين شخصيين، حيث تتكيف مع أنماط التعلم الفردية وتقدم دروسًا مخصصة تحافظ على مشاركة الطلاب. وفي مكان العمل، يمكن للروبوتات الشبيهة بالبشر أن تتولى مهام خطيرة أو متكررة، مما يسمح للبشر بالتركيز على العمل الإبداعي والاستراتيجي.
أهداف غير متوافقة وعواقب غير مقصودة
أحد المخاطر الأكثر شيوعًا المرتبطة بالذكاء الاصطناعي غير المتوافق هو مشبك ورق معزز ولنتخيل أن الذكاء الاصطناعي العام مصمم بهدف غير ضار على ما يبدو وهو تصنيع أكبر عدد ممكن من المشابك الورقية. وإذا تم السعي إلى تحقيق هذا الهدف بقدر كاف من الذكاء والاستقلالية، فقد يتخذ الذكاء الاصطناعي العام تدابير متطرفة، مثل تحويل كل الموارد المتاحة (بما في ذلك تلك الحيوية لبقاء الإنسان) إلى مشابك ورق لتحقيق هدفه. ورغم أن هذا المثال افتراضي، فإنه يوضح مخاطر استخدام المشابك الورقية في تصنيع المشابك الورقية. التحسين الموجه نحو هدف واحد في أنظمة الذكاء الاصطناعي القوية، حيث يمكن للأهداف المحددة بدقة أن تؤدي إلى عواقب غير مقصودة وربما كارثية.
ومن الأمثلة على هذا النوع من التحسين الذي يفرض تداعيات سلبية حقيقة مفادها أن بعض أقوى أنظمة الذكاء الاصطناعي في العالم تعمل على التحسين فقط من أجل وقت التفاعل، الأمر الذي يؤدي بدوره إلى المساس بالحقائق والحقيقة. ويمكن للذكاء الاصطناعي أن يبقينا مستمتعين لفترة أطول من خلال تضخيم نطاق نظريات المؤامرة والدعاية عمداً.
الخاتمة
الارتفاع الهائل للذكاء الاصطناعي، مدعومًا بـ النمو المستمر في قوة الحوسبةلقد بدأ الذكاء الاصطناعي بلا شك في تشكيل العالم بطرق خفية وعميقة. بدءًا من دمج محركات التوصية التي توجه استهلاكنا للمحتوى والتفاعلات الاجتماعية، إلى الإمكانات الوشيكة للذكاء الاصطناعي العام، فإن وجود الذكاء الاصطناعي منتشر، ويمس كل ركن من أركان حياتنا تقريبًا.
يعرض الذكاء الاصطناعي اليوم بوضوح التفكير الشبيه بالإنسان كما يمكن رؤيته مباشرة من خلال برامج الدردشة الآلية من أي من أفضل شركات LLM. لقد أصبحت محركات التوصية على منصات مثل يوتيوب وفيسبوك وجوجل بمثابة بوابات للمعلومات، مما يعزز التفضيلات، وفي بعض الأحيان، يزيد من حدة التحيزات. لا تخدم هذه الأنظمة المحتوى فحسب؛ بل إنها تشكل آراءنا، وتعزلنا في غرف صدى، بل وتديم المعلومات المضللة. وفي القيام بذلك، تتولى الذكاء الاصطناعي زمام الأمور بطريقة أكثر هدوءًا - من خلال التأثير بشكل خفي على المعتقدات والسلوكيات والمعايير المجتمعية، غالبًا دون أن يدرك المستخدمون ذلك.
وفي الوقت نفسه، فإن الحدود التالية هيAGIإن الذكاء الاصطناعي العام يلوح في الأفق. ومع كل مضاعفة لقوة المعالجة، نقترب من الأنظمة القادرة على الفهم والتعلم والتكيف مثل البشر، مما يثير تساؤلات حول الاستقلالية والتوافق مع القيم الإنسانية والسيطرة. وإذا ظهرت الذكاء الاصطناعي العام، فإنها ستعيد تعريف علاقتنا بالتكنولوجيا، مما يجلب إمكانات غير مسبوقة وتحديات أخلاقية. ويتطلب هذا المستقبل، حيث يمكن لأنظمة الذكاء الاصطناعي أن تعمل بشكل مستقل عبر أي مجال، تفكيرًا دقيقًا وإعدادًا والتزامًا بمحاذاة مسار الذكاء الاصطناعي مع المصالح الفضلى للإنسانية.
تجدر الإشارة أيضًا إلى أن الذكاء الاصطناعي العام سيكون موجودًا داخل أجسام الروبوتات، بعضها يشبه الإنسان، وبعضها الآخر عبارة عن مزارع خوادم.
في حين ستعيش الروبوتات في منازلنا بحلول عام 2030، فإن "سيطرة" الذكاء الاصطناعي لن تأتي من خلال الروبوتات التي تتمرد على المجتمع بل من خلال الأنظمة التي نتفاعل معها بالفعل يوميًا - الأنظمة التي توجه وتقنع وتؤثر، في حين يشير وعد الذكاء الاصطناعي العام إلى تحول أعمق. يعتمد المستقبل على قدرتنا على ضمان أن الذكاء الاصطناعي يعزز البشر، بدلاً من السماح له بالسيطرة علينا.
إذا كنت تعرف شخصًا يخضع للتحكّم والتلاعب من قِبل محركات التوصية هذه، فعليك أن تحاول شرح كيف يتحكّم الذكاء الاصطناعي به بطرقٍ أشدّ شرًا من الدولة العميقة. يكمن الخطر الحقيقي للذكاء الاصطناعي في قدرته على التحكّم بعقولنا والتلاعب بها.
أنطوان هو قائد صاحب رؤية وشريك مؤسس لشركة Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. وهو رجل أعمال متسلسل، ويعتقد أن الذكاء الاصطناعي سيكون له نفس التأثير على المجتمع مثل الكهرباء، وغالبًا ما يتم ضبطه وهو يهذي عن إمكانات التقنيات المبتكرة والذكاء الاصطناعي العام.
ك المستقبليوهو مكرس لاستكشاف كيف ستشكل هذه الابتكارات عالمنا. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التقنيات المتطورة التي تعمل على إعادة تعريف المستقبل وإعادة تشكيل قطاعات بأكملها.
قد يعجبك


كيف يمكننا الاستفادة من تطور الذكاء العام الاصطناعي (AGI)


ما هو قانون تسريع العوائد؟ كيف يؤدي إلى الذكاء الاصطناعي العام


ما هو قانون مور وكيف يؤثر على الذكاء الاصطناعي؟


مستقبل واجهات آلة الدماغ: الذكاء التكافلي مقابل الذكاء البشري


أفضل 6 كتب في مجال التعلم الآلي والذكاء الاصطناعي على الإطلاق (فبراير 2026)


هل يمثل GPT-4 قفزة إلى الأمام نحو الوصول إلى الذكاء الاصطناعي العام؟