أخر الاخبار

من الخيال العلمي إلى الواقع: المخاطر الحقيقية لتقنيات الذكاء الاصطناعي

يمثل صعود الذكاء الاصطناعي طفرة تكنولوجية كبيرة تستعد لإحداث ثورة في المجتمع مثلما فعلت شبكة الإنترنت وأجهزة الكمبيوتر الشخصية والهواتف المحمولة. وتأثيرها المنتشر، حيث يتسلل إلى مختلف جوانب الحياة البشرية من العمل والتعليم إلى الأنشطة الترفيهية.

يثير التقدم السريع للشبكات العصبية بعض القلق، مما يدفعنا لاستكشاف المخاطر المحتملة التي قد يشكلها الذكاء الاصطناعي على البشرية في هذا المقال سنسلط الضوء على ما يمكن حدوثة بسبب التقدم والتطور السريع في تقنيات الذكاء الاصطناعي.


هل الذكاء الاصطناعي خطير؟ من الذي عبر عن مخاوفه؟

هل الذكاء الاصطناعي خطير؟ المخاطر الحقيقية للذكاء الاصطناعي

في أفلام الخيال العلمي، تعد فكرة الذكاء الاصطناعي الذي لا يمكن السيطرة عليه والمصمم على السيطرة على البشرية أو تدميرها موضوعًا شائعًا، كما رأينا في الأفلام القديمة مثل "The Matrix" و"The Terminator". مع الوتيرة السريعة للتقدم التكنولوجي اليوم، قد يكون من الصعب على الشخص العادي مواكبة ذلك. إن التقدم السريع للذكاء الاصطناعي يجعل مجتمعاتنا تتكيف بسرعة، مما يثير المخاوف بسبب تعقيد هذه التقنيات والخوف البشري الفطري من المجهول.

لا يشعر الأفراد العاديون بالقلق بشأن الذكاء الاصطناعي فحسب، بل إن الخبراء في هذا المجال يعبرون أيضًا عن مخاوفهم. على سبيل المثال، أعرب جيفري هينتون، الذي يشار إليه غالبًا باسم "الأب الروحي للذكاء الاصطناعي"، عن مخاوفه قائلاً:

يمكن لهذه الأشياء أن تصبح أكثر ذكاءً منا ويمكن أن تقرر الاستيلاء عليها، وعلينا أن نقلق الآن بشأن كيفية منع حدوث ذلك.

اعتقدت لفترة طويلة أننا كنا على بعد 30 إلى 50 عامًا من ذلك. لذلك أسمي ذلك بعيدًا عن شيء يتمتع بذكاء عام أكبر من الشخص. الآن، أعتقد أننا قد نكون أقرب بكثير، ربما بعد خمس سنوات فقط من ذلك.

هناك خطر جدي يتمثل في أننا سنصنع أشياء أكثر ذكاءً منا قريبًا إلى حد ما، وأن هذه الأشياء قد تحصل على دوافع سيئة وتسيطر على الأمور.

في 22 مارس 2023، رسالة مفتوحة نُشرت الدعوة إلى وقف تطوير ذكاء اصطناعي أقوى من GPT-4 لمدة ستة أشهر.

أصبحت أنظمة الذكاء الاصطناعي المعاصرة الآن قادرة على المنافسة بين البشر في المهام العامة، ويتعين علينا أن نسأل أنفسنا: هل ينبغي لنا أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب علينا أتمتة جميع الوظائف، بما في ذلك الوظائف المُرضية؟ هل يجب علينا تطوير عقول غير بشرية قد تتفوق علينا في النهاية عددًا، وتتفوق علينا في الذكاء، وتتقادم، وتحل محلنا؟

هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟ ولا ينبغي تفويض مثل هذه القرارات لقادة التكنولوجيا غير المنتخبين. ولا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نكون على ثقة من أن تأثيراتها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة. ويجب أن تكون هذه الثقة مبررة بشكل جيد، وأن تتزايد مع حجم التأثيرات المحتملة للنظام.

تم توقيع الرسالة من قبل 1800 من قادة شركات التكنولوجيا و 1500 أستاذ وباحث وباحث في مجال الذكاء الاصطناعي  تقنى، بما في ذلك:

  • إيلون ماسك، الرئيس التنفيذي لشركة SpaceX وTesla وTwitter.
  • ستيف وزنياك، المؤسس المشارك لشركة أبل.
  • عماد مشتاق، الرئيس التنفيذي لشركة Stability AI.
  • جان تالين، المؤسس المشارك لـ Skype، مركز دراسة المخاطر الوجودية، معهد مستقبل الحياة.
  • إيفان شارب، المؤسس المشارك لموقع Pinterest.
  • كريج بيترز، الرئيس التنفيذي، غيتي إيماجز.
  • مارك نيتسبرج، مركز الذكاء الاصطناعي المتوافق مع الإنسان، جامعة كاليفورنيا في بيركلي، المدير التنفيذي.
  • غاري ماركوس، جامعة نيويورك، باحث في الذكاء الاصطناعي، أستاذ فخري.
  • زاكاري كينتون، ديب مايند، كبير علماء الأبحاث.
  • رامانا كومار، ديب مايند، عالم أبحاث.
  • مايكل أوزبورن، جامعة أكسفورد، أستاذ التعلم الآلي.
  • آدم سميث، جامعة بوسطن، أستاذ علوم الكمبيوتر، جائزة جودل، جائزة كانيلاكيس.
في المجموع وحتى وقت كتابة تلك المقال، تم جمع أكثر من 33707 توقيع.
ووقعت شخصيات بارزة أخرى، مثل سام ألتمان (الرئيس التنفيذي لشركة OpenAI)، وجيفري هينتون (الفائز بجائزة تورينج)، وداريو أمودي (الرئيس التنفيذي لشركة Anthropic)، وبيل جيتس (الرئيس التنفيذي لشركة مايكروسوفت سابقاً)، بالإضافة إلى أكثر من 350 مديرًا تنفيذيًا وباحثًا في الذكاء الاصطناعي. البيان التالي.

وينبغي أن يكون التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل الأوبئة والحرب النووية.


مخاطر الذكاء الاصطناعي (بحث شامل)

مخاطر الذكاء الاصطناعي

سيناريوهات فقدان السيطرة

يمكن لأنظمة الذكاء الاصطناعي التي تدير السيارات الذاتية القيادة اتخاذ قرارات في الوقت الحقيقي حول القيادة، الملاحة، والتفاعل مع البيئة المحيطة. في حالة حدوث خطأ تقني أو خلل في النظام، قد يؤدي ذلك إلى حوادث مرورية خطيرة. على سبيل المثال، في عام 2018، صدمت سيارة ذاتية القيادة تابعة لشركة أوبر أحد المشاة وقتلته.

الأنظمة الذكية تعتمد على البرمجة الدقيقة والخوارزميات المعقدة. أي خطأ بشري في تصميم أو برمجة هذه الأنظمة يمكن أن يؤدي إلى قرارات غير صحيحة أو غير متوقعة.

وفي عام 2022، أعاد العلماء تشكيل نظام الذكاء الاصطناعي المصمم في الأصل لإنشاء جزيئات شفاء غير سامة لإنتاج عوامل الحرب الكيميائية. ومن خلال تغيير إعدادات النظام لمكافأة السمية بدلاً من معاقبتها، تمكنوا بسرعة من توليد 40 ألف جزيء محتمل للحرب الكيميائية خلال ست ساعات فقط.

في عام 2023، أظهر الباحثون كيف يمكن لـ GPT-4 التلاعب بعامل TaskRabbit لإكمال التحقق من Captcha. في الآونة الأخيرة، تم الإبلاغ عن حادث مأساوي حيث انتحر أحد الأشخاص بعد محادثة مقلقة مع برنامج الدردشة الآلي.

الذكاء الاصطناعي والتلاعب بعامل TaskRabbit لإكمال التحقق من Captcha

إن استخدام أنظمة الذكاء الاصطناعي، بغض النظر عن الغرض المقصود منها، يمكن أن يؤدي إلى عواقب سلبية، مثل:

  • الأتمتة حفزت فقدان الوظائف.
  • التزييف العميق والمعلومات الخاطئة.
  • انتهاكات الخصوصية.
  • تنظيم قانوني غير واضح.
  • التحيز الخوارزمي الناجم عن البيانات السيئة.
  • الأزمات المالية.
  • الجرائم الإلكترونية.
  • أتمتة الأسلحة.
  • الذكاء الفائق الذي لا يمكن السيطرة عليه.

أصبحت أنظمة الذكاء الاصطناعي قوية بشكل متزايد، ونحن لا نعرف حدودها. يمكن استخدام هذه الأنظمة لأغراض ضارة. دعونا نفحص ونتحدث عن المخاطر المختلفة عن كثب.



فقدان الوظائف بسبب الأتمتة بواسطة الذكاء الاصطناعي

وفقاً لبحث أجراه بنك جولدمان ساكس (مؤسسة مالية عالمية رائدة تقدم مجموعة واسعة من الخدمات المصرفية الاستثمارية وإدارة الثروات)، قد يؤثر الذكاء الاصطناعي بشكل كبير على أسواق العمل في جميع أنحاء العالم.

ومن خلال تحليل قواعد البيانات التي توضح بالتفصيل محتوى المهام لأكثر من 900 مهنة في الولايات المتحدة و2000 مهنة في قاعدة بيانات ESCO الأوروبية، يقدر خبراء الاقتصاد في جولدمان ساكس أن ما يقرب من ثلثي المهن تتعرض لدرجة معينة من الأتمتة بواسطة الذكاء الاصطناعي.

فقدان الوظائف بسبب الأتمتة بواسطة الذكاء الاصطناعي

يُظهر المحور الرأسي حصة عبء العمل المهني المعرض للأتمتة بواسطة الذكاء الاصطناعي. يُظهر المحور الأفقي النسبة المئوية للمهن.

ومن الممكن أن تؤدي التغييرات في سير العمل الناجمة عن هذه التطورات إلى أتمتة ما يعادل 300 مليون وظيفة بدوام كامل. ومع ذلك، لن يؤدي كل هذا العمل الآلي إلى تسريح العمال. العديد من الوظائف والصناعات معرضة جزئيًا فقط للأتمتة، مما يعني أنه من المرجح أن يتم استكمالها بالذكاء الاصطناعي بدلاً من استبدالها بالكامل.

ويذهب موقع Seo.ai إلى أبعد من ذلك، حيث يقدر أنه يمكن استبدال حوالي 800 مليون وظيفة على مستوى العالم بالذكاء الاصطناعي بحلول عام 2030. وللتحضير لهذا التحول القادم، من المتوقع أن يخضع أكثر من 120 مليون عامل لإعادة التدريب خلال السنوات الثلاث المقبلة.

حتى نماذج اللغات الكبيرة الأكثر تقدمًا تكون عرضة لتوليد معلومات غير صحيحة أو لا معنى لها. غالبًا ما تكون هذه الأخطاء (الهلوسة) نتيجة لاعتماد النموذج على الأنماط الإحصائية في البيانات التي تم تدريبه عليها بدلاً من الفهم أو الاستدلال الحقيقي.


بمعنى آخر، يمكن لروبوتات الدردشة في بعض الأحيان اختلاق الحقائق. لقد أصبح هذا واضحًا في عام 2023، على سبيل المثال عندما واجه أحد المحامين في أمريكا موقفًا صعبًا لاستخدام ChatGPT لإجراء بحث قانوني في قضية إصابة شخصية.

وقد قام بتجميع ملخص من 10 صفحات، يشير إلى العديد من قرارات المحكمة السابقة، والتي ثبت أن جميعها ملفقة بالكامل بواسطة برنامج الدردشة الآلي. ونتيجة لذلك، فرض قاض اتحادي عقوبات على المحامي وزميله وغرامة قدرها 5000 دولار لكل منهما. والعديد من تلك الأمثلة.

وفي عام 2024، تم تأديب محام آخر في نيويورك بسبب الاستشهاد بقضية غير موجودة تم إنشاؤها بواسطة الذكاء الاصطناعي.

الذكاء الاصطناعي وتزييف الحقائق - Artificial Intelligence and Fake Facts

مثال آخر هو Stack Overflow، وهو موقع ويب للأسئلة والأجوبة يستخدمه المبرمجون والمطورون بشكل أساسي لطرح الأسئلة الفنية وطلب المساعدة في حل مشكلات البرمجة ومشاركة المعرفة داخل مجتمع البرمجة.

اضطر الموقع إلى حظر جميع استخدامات الذكاء الاصطناعي التوليدي، لأن متوسط ​​معدل الحصول على الإجابات الصحيحة من مختلف برامج الدردشة الآلية كان منخفضًا للغاية على الرغم من أن الإجابات تبدو مقنعة عادةً.


التلاعب الاجتماعي

تمتلئ منصات وسائل التواصل الاجتماعي بالكثير من المحتوى هذه الأيام، وقد يكون من الصعب مواكبة كل ذلك. وهنا يأتي دور التنظيم الخوارزمي. فهو يساعد بشكل أساسي في التدقيق في كل الضوضاء وتقديم محتوى للمستخدمين من المرجح أن يثير اهتمامهم بناءً على السلوك السابق.

في حين أن هذا يمكن أن يكون مفيدًا في إدارة التدفق اللامتناهي من المعلومات، فإنه يعني أيضًا أن النظام الأساسي لديه قدر كبير من التحكم في تشكيل ما يراه المستخدمون ويتفاعلون معه.

ومع ذلك، فإن تغيير ما يظهر في موجز الأخبار الخاص بشخص ما يمكن أن يؤثر على مزاجه وكيفية رؤيته للعالم بشكل عام. في يناير 2012، أظهر علماء بيانات فيسبوك كيف يمكن للقرارات المتعلقة بتنظيم موجز الأخبار أن تغير مستوى سعادة المستخدمين. سلطت أحداث يناير 2021 في الولايات المتحدة في مبنى الكابيتول الأمريكي الضوء بشكل أكبر على كيف يمكن أن يلعب استهلاك شخص ما لوسائل التواصل الاجتماعي دورًا في التطرف.

بالإضافة إلى ذلك، نظرًا لأن المواد المثيرة تميل إلى إبقاء المستخدمين مدمنين عليها لفترات أطول من الوقت، فقد تقوم الخوارزميات بتوجيه المستخدمين عن غير قصد نحو محتوى استفزازي وضار من أجل زيادة التفاعل.

حتى اقتراح المحتوى بناءً على اهتمامات المستخدم يمكن أن يكون مشكلة، لأنه يمكن أن يزيد من ترسيخ معتقداتهم داخل "فقاعة التصفية" بدلاً من تعريضهم لوجهات نظر متنوعة. وهذا يمكن أن يؤدي في النهاية إلى زيادة الاستقطاب بين المستخدمين.

عندما نسلم سلطة اتخاذ القرار إلى المنصات، فإننا نمنحها في الأساس السيطرة على ما نراه. تتفوق وسائل التواصل الاجتماعي، بخوارزمياتها المتقدمة، في التسويق المستهدف من خلال فهم تفضيلاتنا وأفكارنا. تبحث التحقيقات الأخيرة في دور كامبريدج أناليتيكا وشركات مماثلة في استخدام بيانات من 50 مليون مستخدم لفيسبوك للتأثير على الأحداث السياسية الكبرى مثل الانتخابات الرئاسية الأمريكية لعام 2016 واستفتاء خروج بريطانيا من الاتحاد الأوروبي.

إذا ثبتت صحة هذه الادعاءات، فإنها تسلط الضوء على قدرة الذكاء الاصطناعي على التلاعب بالمجتمع. ومن الأمثلة الأحدث على ذلك استخدام فرديناند ماركوس الابن جيش TikTok للتأثير على الناخبين الشباب في الانتخابات الرئاسية الفلبينية لعام 2022. من خلال الاستفادة من البيانات الشخصية والخوارزميات، يمكن للذكاء الاصطناعي استهداف الأفراد بشكل فعال بدعاية محددة، سواء كانت مبنية على حقائق أو خيال.


التزييف العميق

تشير تقنية Deepfakes إلى مقاطع الفيديو أو الصور المعدلة رقميًا والتي تصور بشكل واقعي شخصًا يقول أو يفعل شيئًا لم يقله أو يفعله أبدًا. تستخدم هذه التقنية خوارزميات التعلم العميق لمعالجة لقطات الفيديو والصوت الموجودة لإنشاء محتوى مزيف ومقنع.

قال مارتن فورد (كاتب وعالم كمبيوتر أمريكي)، "لا أحد يعرف ما هو حقيقي وما هو غير حقيقي". "لذا فإن الأمر يؤدي حقًا إلى موقف لا يمكنك فيه تصديق عينيك وأذنيك؛ لا يمكنك الاعتماد على ما اعتبرناه تاريخيًا أفضل دليل ممكن... ستكون هذه مشكلة كبيرة».

أحد الأسباب الرئيسية لاعتبار التزييف العميق خطيرًا هو إمكانية استخدامه لأغراض ضارة. على سبيل المثال، يمكن استخدام تقنية التزييف العميق لإنشاء أدلة فيديو مزيفة في القضايا القانونية، أو تلفيق تهمة لأفراد لارتكابهم جرائم لم يرتكبوها، أو حتى انتحال شخصية سياسية لنشر معلومات كاذبة.

ومن خلال التلاعب بوسائل الإعلام بهذه الطريقة، تتمتع تقنية التزييف العميق بالقدرة على تعطيل الثقة في المصادر التقليدية للمعلومات وزرع الارتباك والشقاق في المجتمع.

وفقًا لشركة DeepMedia، وهي شركة تعمل على أدوات للكشف عن الوسائط الاصطناعية، تم نشر 500000 صورة مزيفة على مواقع التواصل الاجتماعي على مستوى العالم في عام 2023. وهذا يعادل 3 أضعاف عدد مقاطع الفيديو المزيفة بعمق و8 أضعاف عدد مقاطع الفيديو المزيفة العميقة مقارنة بعام 2022.

تشمل بعض الأمثلة الحديثة على الاستخدام السيئ النية للتزييف العميق إنشاء مواد إباحية مزيفة للمشاهير، حيث يتم إدراج وجوه المشاهير رقميًا في مقاطع فيديو إباحية دون موافقتهم.

بالإضافة إلى ذلك، كانت هناك حالات لاستخدام مقاطع الفيديو المزيفة للتلاعب بأسعار الأسهم، أو تشويه سمعة الأفراد، أو نشر الدعاية السياسية. تسلط هذه الأمثلة الضوء على إمكانية استخدام التزييف العميق لأغراض ضارة وخادعة.


الجريمة الإلكترونية

تشمل الجرائم الإلكترونية مجموعة واسعة من الأنشطة الإجرامية التي تستخدم الأجهزة والشبكات الرقمية. تتضمن هذه الجرائم استخدام التكنولوجيا لارتكاب عمليات الاحتيال وسرقة الهوية وخرق البيانات وفيروسات الكمبيوتر وعمليات الاحتيال وغيرها من الأعمال الضارة.

يستغل مجرمو الإنترنت نقاط الضعف في أنظمة الكمبيوتر والشبكات للوصول غير المصرح به، وسرقة المعلومات الحساسة، وتعطيل الخدمات، والتسبب في ضرر للأفراد والمنظمات والحكومات.

يستخدم الخصوم بشكل متزايد أدوات الذكاء الاصطناعي المتاحة بسهولة مثل ChatGPT وDall-E وMidjourney لشن هجمات التصيد الاحتيالي الآلية وهجمات انتحال الشخصية وهجمات الهندسة الاجتماعية وروبوتات الدردشة المزيفة لدعم العملاء.

بحسب تقرير SlashNext (شركة متخصصة في أمان البريد الإلكتروني المستند إلى السحابة) عن حالة التصيد الاحتيالي لعام 2023، حدثت زيادة بنسبة 1265% في رسائل البريد الإلكتروني التصيدية الضارة، ويُعزى ذلك إلى حد كبير إلى استخدام أدوات الذكاء الاصطناعي لشن هجمات مستهدفة.

أصبحت هجمات انتحال الشخصية شائعة بشكل متزايد. يستخدم المحتالون ChatGPT وأدوات أخرى لانتحال شخصية أفراد ومؤسسات حقيقية، والانخراط في سرقة الهوية والاحتيال. وعلى غرار هجمات التصيد الاحتيالي، فإنها تستخدم روبوتات الدردشة لإرسال رسائل صوتية تتظاهر بأنها صديق أو زميل أو فرد من العائلة موثوق به من أجل الحصول على معلومات شخصية أو الوصول إلى الحسابات.

في حالة ملحوظة من مارس 2019، وقع رئيس إحدى الشركات التابعة لشركة طاقة ألمانية في المملكة المتحدة ضحية محتال قام بمحاكاة صوت الرئيس التنفيذي، مما أدى إلى تحويل ما يقرب من 200 ألف جنيه إسترليني إلى حساب مصرفي مجري. تم نقل الأموال لاحقًا إلى المكسيك وتوزيعها على مواقع متعددة. ولم يحدد المحققون أي مشتبه بهم.

وفي عام 2023، تلقى مركز شكاوى جرائم الإنترنت (IC3) عددًا غير مسبوق من الشكاوى من الجمهور الأمريكي: تم تقديم ما مجموعه 880418 شكوى، مع خسائر محتملة تتجاوز 12.5 مليار دولار. ويشير هذا إلى زيادة بنسبة 10% تقريبًا في عدد الشكاوى الواردة وزيادة بنسبة 22% في الخسائر مقارنة بعام 2022.

وعلى الرغم من هذه الأرقام المذهلة، من المهم ملاحظة أنها من المحتمل أن تقلل من الحجم الحقيقي للجرائم الإلكترونية. على سبيل المثال، عندما قام مكتب التحقيقات الفيدرالي (FBI) بتفكيك مجموعة Hive Ransomware، وتم اكتشاف أن حوالي 20٪ فقط من ضحايا Hive قد أبلغوا سلطات إنفاذ القانون بالجريمة.


انتهاك الخصوصية

والمثال الرئيسي للمراقبة الاجتماعية هو الصين تستخدم تقنية التعرف على الوجه في المكاتب والمدارس وغيرها من الأماكن. لا تتيح هذه التكنولوجيا تتبع تحركات الأفراد فحسب، بل تتيح أيضًا للحكومة جمع بيانات واسعة النطاق لمراقبة أفعالهم وأنشطتهم وعلاقاتهم ومعتقداتهم الأيديولوجية.

يمكن الآن مراقبة الأفراد عبر الإنترنت وفي حياتهم اليومية. يتم تقييم كل مواطن بناءً على سلوكياته، مثل المشي في الشوارع، والتدخين في المناطق المخصصة لغير المدخنين، والوقت الذي يقضيه في لعب ألعاب الفيديو. تخيل أن كل إجراء يؤثر على درجاتك الشخصية ضمن نظام الائتمان الاجتماعي.

عندما يراقبك الأخ الأكبر ثم يتخذ قرارات بناءً على تلك المعلومات، فإن ذلك لا يعد انتهاكًا للخصوصية فحسب، بل يمكن أن يتحول بسرعة إلى اضطهاد اجتماعي.


الأزمات المالية

في العالم المالي اليوم، ينتشر استخدام خوارزميات التعلم الآلي على نطاق واسع، حيث تعتمد صناديق شركات الاستثمار بشكل كبير على هذه النماذج لتحليل الأسهم والأصول. يتم تغذية هذه الخوارزميات باستمرار بكميات هائلة من البيانات التقليدية والبديلة لاتخاذ قرارات التداول. ومع ذلك، هناك قلق متزايد من أن التداول الخوارزمي قد يؤدي إلى الأزمة المالية الكبرى التالية.

الأزمات المالية Flash Crash 2010

في عام 2010 فلاش كراش. 600 مليار دولار تبخرت في 20 دقيقة.

أحد الأمثلة البارزة على مخاطر الخوارزميات الخاطئة هو الانهيار المفاجئ لعام 2010، حيث انخفض سوق الأسهم فجأة بما يقرب من 1000 نقطة في غضون دقائق قبل أن ينتعش بسرعة.

على الرغم من أن مؤشرات السوق تمكنت من الارتداد جزئيًا في نفس اليوم، إلا أن الانهيار السريع محى ما يقرب من تريليون دولار من القيمة السوقية. ويعزى هذا الانخفاض المفاجئ والجذري في الأسعار إلى حد كبير إلى خوارزميات التداول الآلي التي تتفاعل مع ظروف السوق بطريقة غير متوقعة.

مثال آخر كان حادثة Knight Capital Flash Crash (إحدى شركات صناعة السوق الكبرى) في عام 2012، حيث تسببت خوارزمية معيبة في خسارة الشركة 440 مليون دولار في 45 دقيقة فقط، مما أدى في النهاية إلى زوالها.

تعمل هذه الانهيارات بمثابة تذكير واقعي للمخاطر المحتملة التي يفرضها التداول الخوارزمي في الأسواق المالية. عندما لا يتم تصميم الخوارزميات أو اختبارها أو مراقبتها بشكل صحيح، فقد يكون لها عواقب كارثية. ومن الأهمية بمكان أن تقوم المؤسسات المالية بفحص خوارزمياتها بدقة والتأكد من وجود ممارسات مناسبة لإدارة المخاطر لمنع حدوث كوارث مماثلة في المستقبل.


الذكاء الاصطناعي والروبوتات القاتلة

الذكاء الاصطناعي والروبوتات القاتلة - Artificial Intelligence and Killer Robots

لطالما كانت الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي موضوعًا للنقاش والقلق بين الحكومات والمسؤولين العسكريين والمدافعين عن حقوق الإنسان. تتمتع هذه الأنظمة، المعروفة أيضًا باسم "الروبوتات القاتلة" أو "الأسلحة الفتاكة المستقلة"، بالقدرة على اختيار الأهداف والاشتباك معها بشكل مستقل دون تدخل بشري.

وهذا يثير مخاوف أخلاقية وقانونية وأمنية كبيرة، لأن هذه الأسلحة لديها القدرة على اتخاذ قرارات الحياة أو الموت دون إشراف بشري.

تسارعت وتيرة تطوير الأسلحة المستقلة في السنوات الأخيرة، حيث أصبحت تكنولوجيا الذكاء الاصطناعي أكثر تقدما وانتشارا. يمكن أن تتراوح هذه الأسلحة من الطائرات بدون طيار إلى الأنظمة الأرضية التي يمكنها تحديد الأهداف ومهاجمتها بشكل مستقل. ويقول أنصار الأسلحة المستقلة إنها قادرة على تقليل الخسائر البشرية في مناطق الصراع وتوفير عمليات عسكرية أكثر دقة وكفاءة.

ومع ذلك، يرى النقاد أن هذه الأنظمة تثير أسئلة أخلاقية خطيرة ويمكن أن يكون لها عواقب غير مقصودة، مثل تصعيد الصراعات والإصابات بين المدنيين.

إن الخطر الذي تشكله الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي حقيقي للغاية. من المحتمل أن يتم التلاعب بهذه الأنظمة أو حدوث خلل فيها، مما يؤدي إلى عواقب غير مقصودة وفقدان السيطرة. بالإضافة إلى ذلك، فإن الافتقار إلى الرقابة البشرية في عملية صنع القرار يثير مخاوف بشأن المساءلة واحتمال وقوع انتهاكات للقانون الإنساني الدولي.

في عام 2020، دعت أكثر من 30 دولة إلى فرض حظر على الأسلحة الفتاكة المستقلة، مشيرة إلى مخاوف بشأن إمكانية اتخاذ الآلات قرارات الحياة أو الموت.

على الرغم من هذه المخاوف، فإن تطوير ونشر الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي مستمر في التقدم. ومن المعروف أن دولًا مثل الولايات المتحدة وروسيا والصين وإسرائيل تستثمر بكثافة في هذه التقنيات.

وفي الولايات المتحدة، تعمل وزارة الدفاع على تطوير أنظمة أسلحة ذاتية التشغيل، بما في ذلك طائرات بدون طيار شبه مستقلة ومركبات أرضية بدون طيار.


الذكاء الفائق الذي لا يمكن السيطرة عليه

يتفوق الذكاء الاصطناعي على العقل البشري بعدة طرق بما في ذلك سرعة الحساب، وسرعة الاتصال الداخلي، وقابلية التوسع، وسعة الذاكرة، والموثوقية، وقابلية النسخ، وقابلية التحرير، ومشاركة الذاكرة، وقدرات التعلم:

  • يعمل الذكاء الاصطناعي بسرعة متعددة غيغاهرتز مقارنة بحد 200 هرتز للخلايا العصبية البيولوجية.
  • تنقل المحاور الإشارات بسرعة 120 م/ث، بينما تقوم أجهزة الكمبيوتر بذلك بسرعة الكهرباء أو الضوء.
  • يمكن للذكاء الاصطناعي التوسع بسهولة عن طريق إضافة المزيد من الأجهزة، على عكس الذكاء البشري المحدود بحجم الدماغ وكفاءة التواصل الاجتماعي.
  • الذاكرة العاملة لدى البشر محدودة مقارنة بسعة الذاكرة الموسعة للذكاء الاصطناعي.

وتتفوق موثوقية الترانزستورات في الذكاء الاصطناعي على الخلايا العصبية البيولوجية، مما يتيح دقة أعلى وتكرارًا أقل.

يمكن تكرار نماذج الذكاء الاصطناعي وتعديلها بسهولة، ويمكن التعلم من تجارب الذكاء الاصطناعي الأخرى بكفاءة أكبر من البشر.

في يوم من الأيام، قد يصل الذكاء الاصطناعي إلى مستوى من الذكاء يفوق بكثير مستوى البشر، مما يؤدي إلى ما يعرف بالانفجار الذكائي.
قد يصل الذكاء الاصطناعي إلى مستوى من الذكاء يفوق بكثير مستوى ذكاء البشر 

أثارت فكرة التحسين الذاتي العودي، حيث يعمل الذكاء الاصطناعي على تحسين نفسه باستمرار بمعدل هائل، مخاوف بشأن العواقب المحتملة لإنشاء كيان فائق الذكاء. تخيل سيناريو يصل فيه الذكاء الاصطناعي إلى مستوى من الذكاء يسمح له بالتفوق على البشر في التفكير والتفوق في الأداء بكل طريقة يمكن تصورها.

من المحتمل أن يكون لهذا الذكاء الفائق القدرة على اتخاذ قرارات تؤثر بشكل كبير على مجتمعنا وأسلوب حياتنا. وكما يحمل البشر حاليًا مصير العديد من الأنواع في أيدينا، فإن مصير البشرية قد يقع يومًا ما في أيدي الذكاء الاصطناعي الفائق.


الاعتماد المفرط على الذكاء الاصطناعي والمسؤولية القانونية

قد يؤدي الاعتماد بشكل كبير على تكنولوجيا الذكاء الاصطناعي إلى انخفاض التأثير البشري وعمله في مناطق معينة من المجتمع. على سبيل المثال، قد يؤدي استخدام الذكاء الاصطناعي في الرعاية الصحية إلى انخفاض التعاطف البشري والتفكير.

بالإضافة إلى ذلك، فإن استخدام الذكاء الاصطناعي التوليدي في المساعي الإبداعية يمكن أن يخنق الإبداع البشري والتعبير العاطفي. يمكن أن يؤدي التفاعل المفرط مع أنظمة الذكاء الاصطناعي أيضًا إلى انخفاض التواصل مع الأقران والمهارات الاجتماعية. في حين أن الذكاء الاصطناعي يمكن أن يكون مفيدًا في أتمتة المهام، إلا أن هناك مخاوف بشأن تأثيره على الذكاء البشري العام وقدراته وإحساسه بالمجتمع.

علاوة على ذلك، هناك مخاطر محتملة يمكن أن تؤدي إلى ضرر جسدي للإنسان. على سبيل المثال، إذا اعتمدت الشركات فقط على تنبؤات الذكاء الاصطناعي لجداول الصيانة دون أي تحقق آخر، فقد يؤدي ذلك إلى أعطال في الآلات تضر بالعمال. في مجال الرعاية الصحية، يمكن أن تؤدي نماذج الذكاء الاصطناعي إلى تشخيصات خاطئة.

بالإضافة إلى الأذى الجسدي، هناك طرق غير جسدية يمكن أن يشكل فيها الذكاء الاصطناعي مخاطر على البشر إذا لم يتم تنظيمها بشكل صحيح.

يتضمن ذلك مشكلات تتعلق بالسلامة الرقمية مثل التشهير، والسلامة المالية مثل إساءة استخدام الذكاء الاصطناعي في التوصيات المالية أو الشيكات الائتمانية، ومخاوف العدالة المتعلقة بالتحيزات في الذكاء الاصطناعي التي تؤدي إلى رفض أو قبول غير عادل في البرامج المختلفة.

وعندما يحدث خطأ ما، من يجب أن يحاسب؟ هل هو الذكاء الاصطناعي نفسه، أم المطور الذي أنشأه، أم الشركة التي وضعته قيد الاستخدام، أم أنه المشغل إذا كان الإنسان متورطًا؟


الأسئلة الشائعة حول مخاطر الذكاء الاصطناعي

الذكاء الاصطناعي هو عبارة عن مجموعة من الأنظمة والتقنيات التي تمكّن الحواسيب والآلات من محاكاة القدرات البشرية مثل التعلم، والاستنتاج، واتخاذ القرارات. هذه الأنظمة تعتمد على خوارزميات متقدمة لتحليل البيانات الكبيرة وتقديم حلول ونتائج دقيقة.

في حين أن هناك فوائد هائلة يمكن جنيها من خلال استخدام الذكاء الاصطناعي، مثل تحسين الكفاءة وزيادة الإنتاجية، فإن هناك أيضًا مخاطر حقيقية تتعلق بانتشار هذه التكنولوجيا وتأثيرها على المجتمع.

بينما يساهم الذكاء الاصطناعي في تحسين الإنتاجية، فإنه يخلق أيضًا فجوة اقتصادية متزايدة بين الفئات المختلفة. يمكن أن يؤدي الذكاء الاصطناعي إلى استبدال العديد من الوظائف التقليدية، مما يترك العمال ذوي المهارات المتدنية بدون فرص عمل.

هذا الوضع قد يفاقم الفجوات الاقتصادية والاجتماعية بين الدول المتقدمة والدول النامية، حيث أن الدول الغنية قادرة على تبني التكنولوجيا بسرعة أكبر. إضافةً إلى ذلك، يمكن أن تؤدي الفجوات التكنولوجية إلى تزايد التفاوت الاجتماعي داخل المجتمعات، حيث يحصل الأفراد الذين يمتلكون المهارات التقنية المتقدمة على فرص أكبر وأفضل.

يمكن للذكاء الاصطناعي أن يكون سلاحًا ذا حدين فيما يتعلق بالأمان . يمكن استخدام الذكاء الاصطناعي لتحسين الأمان من خلال اكتشاف التهديدات والتصدي لها بشكل أسرع وأكثر فعالية.

ومع ذلك، يمكن للهاكرز أيضًا استخدام الذكاء الاصطناعي لتنفيذ هجمات أكثر تعقيدًا وصعوبة في التصدي لها. هذا يضع تحديات كبيرة أمام خبراء الأمان، الذين يجب أن يكونوا مستعدين لمواجهة هذه التهديدات المتزايدة.

"يثير استخدام الذكاء الاصطناعي تساؤلات معقدة حول المسؤولية الأخلاقية والمساءلة." عندما يحدث خطأ في نظام ذكي، يصبح من الصعب تحديد من يتحمل المسؤولية.

هل هو المبرمج، أم الشركة المصنعة، أم النظام نفسه؟ هذا السؤال يتطلب تطوير أطر قانونية وأخلاقية جديدة لتحديد المسؤوليات وضمان العدالة. وضمان الإشراف البشري المستمر على الأنظمة الذكية.

نعم، إذا كانت الأنظمة مبرمجة بطرق تحتوي على تحيزات أخلاقية أو إذا لم يتم تحديد معايير أخلاقية واضحة، فقد تتخذ قرارات غير أخلاقية.

"عندما تبدأ أنظمة الذكاء الاصطناعي في اتخاذ قرارات هامة، تصبح الأخلاقيات مسألة حساسة." يجب أن تكون هذه الأنظمة مبرمجة بطريقة تضمن أنها تتخذ قرارات أخلاقية ومسؤولة. على سبيل المثال، في الرعاية الصحية، يجب أن تكون قرارات الأنظمة متوافقة مع المبادئ الأخلاقية ومعايير الرعاية الطبية الجيدة.



وفي النهاية...

في حين أن الذكاء الاصطناعي يأتي مع العديد من المخاطر والتهديدات، إلا أنه لديه أيضًا القدرة على إفادة المجتمع بشكل كبير وتحسين حياتنا. من المهم أن ندرك أن الخير غالبًا ما يفوق الشر عندما يتعلق الأمر بتكنولوجيا الذكاء الاصطناعي.

في مقالتنا القادمة، سنناقش استراتيجيات تقنيات الذكاء الاصطناعي، وكيفية تسخير إمكاناتها بالكامل لإحداث تغيير إيجابي.

تتمم جمع المعلومات الموجودة بالمقال من مصادر عديدة  موثوقة، إذا وجدت هذا المقال مفيدًا، نأمل منك مشاركته عبر وسائل التواصل الاجتماعي. لنشر المعرفة زيادة الوعى بمخاطر الذكاء الاصطناعي. نشكرك على وقتك واهتمامك، ونتطلع إلى مشاركتك في مقالاتنا القادمة!

إذا أعجبك هذا المقال، يرجى مشاركته مع أصدقائك ومساعدتنا في نشر الكلمة.
تعليقات



    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -