الأخبار

قضايا وآراء في الصحافة العالمية
قضايا وآراء في الصحافة العالمية

عواصم في 28 أبريل /العُمانية/ تزايدت أهمية الذكاء الاصطناعي بصورة كبيرة في السنوات الأخيرة، حيث أصبح له تأثير عميق على مختلف جوانب حياتنا اليومية، بدءًا من التكنولوجيا والاقتصاد وصولاً إلى المجالات الطبية والتعليمية.

وفي هذا المقال، أعرض رأيي حول محاسن ومساوئ الذكاء الاصطناعي، وسأتناول التحديات التي يواجهها والآفاق المستقبلية لهذه التكنولوجيا المثيرة.

ويتمتع الذكاء الاصطناعي بعدة محاسن تستحق الاهتمام؛ أحد أهم هذه المحاسن هو قدرة الذكاء الاصطناعي على معالجة كميات ضخمة من البيانات بسرعة ودقة عالية، ما يمكننا من استخلاص أنماط ورؤى قيمة. يمكن للذكاء الاصطناعي أيضًا أن يتعلم من البيانات ويتكيف مع التغيرات، ما يعزز قدرته على تحسين الأداء واتخاذ قرارات مستنيرة.

بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي في مجالات مثل الطب، حيث يمكنه تحليل الصور الطبية وتشخيص الأمراض بدقة عالية، والتعليم، حيث يمكنه توفير تجارب تعليمية مخصصة وفعالة.

ورغم المحاسن المذكورة، هناك قضايا وتحديات تتعلق بمساوئ الذكاء الاصطناعي يجب التصدي لها بجدية.

أحد المساوي المهمة هو القلق بشأن الأخلاق والتأثيرات الاجتماعية للذكاء الاصطناعي، ينبغي أن نضمن أن استخدام الذكاء الاصطناعي يتم بطرق تتوافق مع القيم الأخلاقية والقوانين، وأنه لا يؤدي إلى تفاقم الفجوة الاجتماعية وتهديد الوظائف البشرية.

ومن الضروري أيضًا أن نحقق الشفافية والمساءلة في تطوير واستخدام الذكاء الاصطناعي، وأن نحمي الخصوصية والأمان السيبراني.

وتتوقع تطورات مثيرة في مجال الذكاء الاصطناعي في المستقبل وقد يتم تطوير تقنيات أكثر تطورًا للتعلم العميق والمعالجة اللغة الطبيعية، ما سيزيد من قدرة الذكاء الاصطناعي على فهم وتفسير اللغة البشرية بشكل أفضل.

وقد يتم أيضًا تطوير تطبيقات الذكاء الاصطناعي في مجالات مثل: السيارات ذاتية القيادة والروبوتات الذكية، ما سيحدث ثورة في قطاع النقل والصناعة. بالإضافة إلى أنه قد يكون للذكاء الاصطناعي دور مهم في حل بعض التحديات الكبرى التي تواجهنا كبشر، مثل التغير المناخي والرعاية الصحية.

ويتطلّع العالم إلى مستقبل مليء بالتقنيات المبتكرة للذكاء الاصطناعي، بينما يتمتع هذا المجال بمحاسن كبيرة في القدرة التحليلية والتعلم الذاتي، يجب أن نواجه التحديات المتعلقة بالأخلاق والمساواة بحذر.

من المهم أن تتعاون المجتمعات والحكومات والشركات في توجيه التطورات التكنولوجية نحو تحقيق المصلحة العامة وتعزيز التقدم الاجتماعي والاقتصادي.

والمقال السابق تمّت كتابته بواسطة برنامج دردشة "جي بي تي" القائم على الذكاء الاصطناعي وقد استغرق روبوت المحادثة 10 ثوانٍ فقط لكتابة هذا المقال.

و يقال أن الذكاء الاصطناعي يعد ثورة في تاريخ البشرية يضاهي اكتشاف النار، ولعل الفترة الماضية أثبتت صحة هذه المقولة؛ فما يقوم به الذكاء الاصطناعي حاليًا من تأثير على البشرية يجعلنا ندرك أن المستقبل يحمل في طياته الكثير من المتغيرات في جميع جوانب الحياة في ظل التطور الهائل في تقنيات الذكاء الاصطناعي.

وفي هذا الصدد، تابعت وكالة الأنباء العُمانية بعضًا من الآراء أوردتها الصحف العالمية عبر مقالات نشرت في صفحاتها وتتعلق بمدى قابلية انصياع الذكاء الاصطناعي للقانون، وإسهامات هذه التقنية في مجال الرعاية الصحية بالإضافة إلى مخاطر السماح لها باتخاذ القرارات نيابة عن البشر.

فمؤسسة "بروجيكت سينديكت" نشرت مقالًا بعنوان: "هل يستطيع الذكاء الاصطناعي تعلم الانصياع للقانون؟" بقلم الكاتبة: "أنتارا هالدار" وهي أستاذة مشاركة في الدراسات القانونية التجريبية في جامعة كامبريدج.

وقالت الكاتبة في بداية المقال: إذا كان عمل عالم الكمبيوتر البريطاني آلان تورينج حول "آلات التفكير" هو مقدمة لما نسميه الآن الذكاء الاصطناعي، فإن كتاب عالم النفس الراحل دانييل كانيمان "التفكير، السريع والبطيء" قد يكون التكملة، نظرًا لما يقدمه من أفكار حول كيفية تفكيرنا بأنفسنا.

وأشارت إلى أنه في الحادي والعشرين من مارس الماضي، تبنّت الأمم المتحدة بالإجماع قراراً تاريخيّاً يدعو المجتمع الدولي إلى "إدارة هذه التكنولوجيا بدلاً من السماح لها بالحكم علينا".

وجاء ذلك في أعقاب قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي و"إعلان بلتشلي" بشأن سلامة الذكاء الاصطناعي، والذي وقّعت عليه أكثر من 20 دولة (معظمها من الاقتصادات المتقدمة) في نوفمبر 2023 .

وأضافت أنه - علاوة على ذلك - لا تزال الجهود على مستوى الدول مستمرة، بما في ذلك في الولايات المتحدة، حيث أصدر الرئيس جو بايدن أمرا تنفيذيا بشأن "تطوير واستخدام آمن وجدير بالثقة" للذكاء الاصطناعي.

وترى الكاتبة أن هذه الجهود هي استجابة لسباق تسلح الذكاء الاصطناعي الذي بدأ مع روبوت شات جي بي تي لشركة "أوبن آيه آي".

وتعتقد أن القلق الأساسي هو "مشكلة التوافق" المعروفة بشكل متزايد، رغم حقيقة أن أهداف الذكاء الاصطناعي والوسائل المختارة لتحقيقها قد لا تكون كذلك.

ولفتت إلى أنه من المحتمل أيضًا أن يساء استخدام أدوات الذكاء الاصطناعي الجديدة من قبل الجهات الفاعلة السيئة (من المحتالين ومن على شاكلتهم)، لتعميق وتضخيم أشكال التمييز والتحيز الموجودة مسبقًا وانتهاك الخصوصية.

وأوضحت الكاتبة أن الشكل الأكثر تطرفاً لمشكلة المواءمة هو المخاطر الوجودية التي يولدها الذكاء الاصطناعي، إذ إن أنظمة الذكاء الاصطناعي التي تتطور باستمرار والتي يمكنها تعليم نفسها يمكن أن تصبح مارقة وتقرر هندسة أزمة مالية، أو التأثير على الانتخابات، أو حتى إنشاء سلاح بيولوجي.

ومن وجهة نظرها فإن هناك سؤالا بلا إجابة يكمن وراء وضع الذكاء الاصطناعي باعتباره تهديدًا وجوديًّا محتملاً وهو: ما هي القيم الإنسانية التي يجب أن تتوافق معها التكنولوجيا؟ هل يجب أن تكون نفعية أو أخلاقية أو ديمقراطية أو ليبرالية؟

وبيّنت أن أغلب المناقشة الحالية حول الذكاء الاصطناعي والقانون تركز على الكيفية التي قد تتحدى بها التكنولوجيا النماذج التنظيمية السائدة.

وترى الكاتبة أنه من الصعب دائما إيجاد التوازن الصحيح بين تعزيز الابتكار وتخفيف المخاطر الهائلة المحتملة المرتبطة بالتكنولوجيا الجديدة.

وطرحت في ختام مقالها تساؤلًا مفاده: مع تزايد التوقعات بأن الذكاء الاصطناعي سيغير ممارسة القانون نفسه، فهل لا يزال بإمكان القانون تغيير مسار الذكاء الاصطناعي؟ والأهم من ذلك، إذا كانت "آلات التفكير" قادرة على التعلم، فهل يمكنها أن تتعلم الانصياع للقانون؟

من جانبها، نشرت صحيفة "كوريا تايمز" مقالًا بعنوان: "الذكاء الاصطناعي في الرعاية الصحية: الفرص والتهديدات" بقلم الكاتب: "دانييل شين" وهو أستاذ في جامعة كوريا.

وأكد الكاتب في بداية مقاله أن تطبيق الذكاء الاصطناعي يعد مثالاً واعداً للاستفادة من التكنولوجيا لتحسين الكفاءة والدقة والامتثال في الرعاية الصحية. ومع استمرار تطور الذكاء الاصطناعي، يمكننا أن نتوقع رؤية المزيد من الابتكارات في مجال الرعاية الصحية.

وأشار إلى أن المثال الأكثر قابلية للتطبيق لاستخدام الذكاء الاصطناعي في الرعاية الصحية هو تطبيق معالجة اللغة الطبيعية، أو NLP، وخوارزميات التعلم الآلي لتحسين التوثيق السريري وعمليات الترميز.

وأوضح الكاتب أن تقليديًا، تتضمن التوثيق والترميز السريري نسخ إدخالات المريض يدويًا في السجلات الصحية الإلكترونية وتعيين رموز التشخيص والإجراءات المناسبة لعمليات إعداد الفواتير وسداد التأمين. ويمكن أن تستغرق وقتًا طويلاً جدًا، وعرضة للخطأ، وتخضع للتباين بين مقدمي الرعاية الصحية.

وبيّن أن لمواجهة هذه التحديات، لا يستثمر مقدمو الخدمات في التحول الرقمي فحسب، بل يتبنون أيضًا بشكل متزايد حلولًا تعتمد على الذكاء الاصطناعي لأتمتة مهام التوثيق السريري والترميز.

وتستخدم هذه الحلول البرمجة اللغوية العصبية لاستخراج المعلومات ذات الصلة من الملاحظات السريرية غير المنظمة وحتى المكتوبة بخط اليد، مثل تاريخ المريض والفحوصات البدنية وخطط العلاج. بعد ذلك، تساعد خوارزميات التعلم الآلي في تحليل البيانات لاقتراح رموز التشخيص المناسبة وأكواد الإجراءات ومعلومات الفوترة.

ولفت إلى أنه يمكن لخوارزميات الذكاء الاصطناعي تحديد المعلومات السريرية ذات الصلة واستخراجها بدقة من النص غير المنظم، ما يقلل الأخطاء والتناقضات في التوثيق والترميز السريري.

وبالتالي، من خلال أتمتة عمليات التوثيق والترميز السريري، يمكن للحلول المدعومة بالذكاء الاصطناعي تحسين الدقة والكفاءة بشكل كبير.

وفي المقابل، قال الكاتب إنه لا تزال هناك العديد من المعضلات الأخلاقية حول موافقة المريض، وملكية البيانات، وشفافية الخوارزميات، والنشر المسؤول للذكاء الاصطناعي في اتخاذ القرارات السريرية الحاسمة.

ويرى أن هناك حاجة ماسة إلى لوائح واضحة وشاملة ومبادئ توجيهية أخلاقية لضمان الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي في المجال الطبي.

وبيّن أنه يمكن لخوارزميات الذكاء الاصطناعي أن تؤدي عن غير قصد إلى إدامة أو تضخيم التحيزات الموجودة في البيانات المستخدمة لتدريبهم.

ويمكن أن يؤدي إلى تفاوتات في نتائج الرعاية الصحية على أساس عوامل مثل العِرق أو الجنس أو الوضع الاجتماعي والاقتصادي. كما يمكن لأنظمة الذكاء الاصطناعي المتحيزة أن تؤدي إلى تفاقم عدم المساواة القائمة في الرعاية الصحية وتؤدي إلى معاملة غير عادلة لبعض مجموعات المرضى.

ومن وجهة نظر الكاتب فإن خوارزميات الذكاء الاصطناعي - مثل أي تقنية - ليست معصومة من الخطأ ويمكن أن ترتكب أخطاء، ما يؤدي إلى تشخيص خاطئ أو توصيات علاجية غير صحيحة.

وأكد على أن الاعتماد بشكل كبير على التشخيص المعتمد على الذكاء الاصطناعي دون تدخل بشري يمكن أن يؤدي إلى إلحاق الضرر بالمرضى وتقويض الثقة في حلول الرعاية الصحية المدعومة بالذكاء الاصطناعي.

وفي السياق ذاته، نشر الكاتب "جو آرفاي" مقالًا في مجلة "الكونفيرسيشن" تحدث فيه عن الخطر الخفي المتمثل في السماح للذكاء الاصطناعي باتخاذ القرار "فقدان المهارات اللازمة للاختيار بأنفسنا".

وأشار إلى أن مع زحف الذكاء الاصطناعي إلى حياة الناس اليومية، تتزايد المخاوف بشأنه، والأكثر إثارة للقلق هو المخاوف من أن يصبح الذكاء الاصطناعي مارقًا ويقضي على البشر.

ويرى الكاتب (وهو مدير معهد ريجلي للدراسات في كلية دورنسيف للآداب والفنون والعلوم التابعة لجامعة جنوب كاليفورنيا) أن وراء الدعوات إلى التوقف مؤقتًا عن تطوير الذكاء الاصطناعي، هناك مجموعة من العلل الاجتماعية الملموسة.

وأوضح أن من بين هذه المخاطر هي تلك التي يشكلها الذكاء الاصطناعي على خصوصية الناس وكرامتهم والحقيقة الحتمية المتمثلة في أن الخوارزميات الموجودة تحت غطاء الذكاء الاصطناعي مبرمجة من قبل البشر، فهي متحيزة وتمييزية مثل الكثير منا.

وإذا أضفنا إلى ذلك الافتقار إلى الشفافية حول كيفية تصميم الذكاء الاصطناعي، ومن الذي صممه، فمن السهل أن نفهم السبب وراء تخصيص قدر كبير من الوقت هذه الأيام لمناقشة مخاطره بقدر ما يناقش إمكاناته.

وقال الكاتب: "إن بحثي الخاص كطبيب نفساني يدرس كيفية اتخاذ الناس للقرارات يقودني إلى الاعتقاد بأن كل هذه المخاطر يحجبها تهديد أكثر إفسادًا، وإن كان غير مرئي إلى حد كبير".

وهذا يعني أن الذكاء الاصطناعي هو مجرد ضغطات على المفاتيح تجعل الناس أقل انضباطًا ومهارة عندما يتعلق الأمر باتخاذ قرارات مدروسة.

وبيّن الكاتب أن اتخاذ قرارات مدروسة ويمكن الدفاع عنها يتطلب الممارسة والانضباط الذاتي. وهنا يأتي الضرر الخفي الذي يعرض الذكاء الاصطناعي الناس له.

ويقوم الذكاء الاصطناعي بمعظم "تفكيره" خلف الكواليس ويقدم للمستخدمين إجابات مجردة من السياق والمداولات. والأسوأ من ذلك أن الذكاء الاصطناعي يحرم الناس من فرصة ممارسة عملية اتخاذ قرارات مدروسة ويمكن الدفاع عنها بأنفسهم.

ولفت إلى أن البيانات التي يستخرجها الذكاء الاصطناعي لتغذية خوارزمياته تتكون من قرارات متحيزة يتخذها الأشخاص والتي تعكس أيضًا ضغط الامتثال بدلاً من حكمة التفكير النقدي.

ولكن لأن الناس يحبون اتخاذ القرارات نيابة عنهم، فإنهم يميلون إلى قبول هذه القرارات السيئة والانتقال إلى القرار التالي. في النهاية، لا نحن ولا الذكاء الاصطناعي أصبح أكثر حكمة.

وخلاصة القول في نظر الكاتب: في عالم أصبح فيه تفكير الناس وكيف يفكرون فيه تحت الحصار بالفعل بفضل خوارزميات وسائل التواصل الاجتماعي، فإننا نخاطر بوضع أنفسنا في موقف أكثر خطورة إذا سمحنا للذكاء الاصطناعي بالوصول إلى مستوى من التطور حيث يمكنه اتخاذ جميع أنواع القرارات نيابة عنا.

/العُمانية/

أحمد صوبان