آخر الأخبار
انتهاء المرحلة الثانية للتعداد السكاني بنجاح استقرار نسبي بأسعار الدولار في أسواق بغداد النزاهة تكشف عمليات اختلاس جديدة بمصرف حكومي في كربلاء توضيح حول تحليق "مسيرات مجهولة" فوق 5 مدن شرقي العراق ترجيحات بمقتل "أبو مثنى".. آخر ما تبقى من قيادات ولاية كركوك

لا مفر من الذكاء الاصطناعي.. تشات جي بي تي (GPT) يختلق فضيحة جنسية لأستاذ في القانون

منوعات | 6-04-2023, 20:30 |

+A -A

بغداد اليوم -  متابعة

منذ لحظة إطلاقه نهاية عام 2022، لم يتوقف روبوت الدردشة "تشات جي بي تي" عن إبهار العالم، إذ حملت النسخة الجديدة "تشات جي بي تي 4" قدرات غير عادية، في فهم النصوص والصور وتحليلها، لكن مؤخراً، ظهرت معضلة كبيرة تتمثل في تحريف الحقائق الأساسية بشكل مدهش للغاية.

وكشفت صحيفة واشنطن بوست الأمريكية، اليوم الخميس، أن "تشات جي بي تي" اختلق فضيحة تحرش جنسي، وألصق التهمة بأستاذ قانون، مشيرة إلى أن تقنية الدردشة الآلية المطورة تستطيع -باستخدام الذكاء الاصطناعي- تدليس الحقائق بشكل مدهش للغاية، ويمكنها حتى الاستشهاد بمقال مفبرك منسوب لصحيفة واشنطن بوست كدليل.

وأشارت الصحيفة، إلى أنه في إحدى ليالي الأسبوع الماضي، تلقى أستاذ القانون جوناثان تورلي رسالة بريد إلكتروني مزعجة، إذ إنه كجزء من دراسة بحثية، طلب محامٍ زميل في كاليفورنيا من برنامج الدردشة الآلي "تشات جي بي تي" الذي يعمل بالذكاء الاصطناعي، إنشاء قائمة بالعلماء القانونيين، الذين تحرشوا جنسيًا بشخص ما، فكانت المفاجأة أن خرج اسم تورلي ضمن القائمة.

وادعى روبوت الدردشة، الذي أنشأته شركة "أوبن إيه آي"، أن تورلي أدلى بتعليقات موحية جنسيًا، وحاول لمس طالب أثناء رحلة إلى ألاسكا، نقلاً عن مقال نُشر في مارس 2018 في صحيفة واشنطن بوست، كمصدر للمعلومات.

لكن، الحقيقة، أنه لم تكن هناك أي رحلة إلى ألاسكا في هذا التوقيت، كما لم تنشر "واشنطن بوست" أي مقال أو خبر عن هذا الأمر، بينما نفى تورلي اتهامه بالتحرش طوال عمله.

كان تورلي معلقًا منتظمًا في وسائل الإعلام، وقد طلب أحيانًا تصحيحات في القصص الإخبارية، لكن هذه المرة، لم يكن هناك صحفي أو محرر محدد يمكنه الاتصال به، كما لا توجد طريقة لتصحيح ما نُشر.

ونقلت "واشنطن بوست" عن تورلي قوله: "كان الأمر مخيفًا للغاية، إذ إن ادعاء من هذا النوع ضار للغاية".

يأتي ذلك وسط تحذيرات من أن المستخدمين يجب أن يتعاملوا مع البرنامج بحذر، لأنه يميل إلى "الهلوسة" -بعبارة أخرى اختلاق الأشياء- لدرجة أنه قد يقدم معلومات طبية "خاطئة" عن السرطان مثلًا، ما قد يكون له توابع كارثية.

تشبه البشر

وذكرت "واشنطن بوست" أن تجربة تورلي تعد من الحالات التي تكشف مخاطر الموجة الأخيرة من الروبوتات اللغوية، التي استحوذت على الاهتمام، من خلال قدرتها على كتابة أكواد الكمبيوتر وصياغة القصائد وإجراء محادثات مخيفة تشبه البشر.

لكن هذا الإبداع يمكن أن يكون أيضًا محركًا للادعاءات الخاطئة، ويمكن للنماذج أن تحرف الحقائق بشكل مدهش، لدرجة أنها تختلق المصادر الأولية لدعم ادعاءاتها.

وأشارت إلى أنه نظرًا لأن برامج الذكاء الاصطناعي غير الخاضعة للتنظيم إلى حد كبير مثل "تشات جي بي تي" ومايكروسوفت بينغ و"غوغل بارد"، بدأت الاندماج عبر الويب، فإن ميلها لتوليد أكاذيب قد تكون ضارة وتثير مخاوف بشأن انتشار المعلومات المضللة، وتفتح الباب أمام أسئلة جديدة عن المسؤول عندما تُضلل برامج الدردشة الآلية الناس.

ونقلت الصحيفة الأمريكية عن كيت كروفورد، الأستاذة بجامعة جنوب كاليفورنيا في أنينبيرغ، كبيرة الباحثين الرئيسين في أبحاث مايكروسوفت، قولها: "نظرًا لأن لهذه الأنظمة ثقة كبيرة من المستخدمين، من السهل جدًا افتراض أنها تستطيع فعل كل شيء، ومن الصعب معرفة الفرق بين الحقائق والأكاذيب".

من جانبه، قال المتحدث باسم "أوبن إيه آي"، نيكو فيليكس في بيان: "عندما يسجل المستخدمون في (تشات جي بي تي)، فإننا نسعى جاهدين لنكون شفافين قدر الإمكان، خصوصًا أنه ينتج أحيانًا إجابات غير دقيقة"، مضيفًا: "نسعى لتحسين دقة الحقائق، ونحرز تقدمًا في هذا الأمر".

وحسب الصحيفة، تعمل روبوتات الدردشة المدعومة بالذكاء الاصطناعي، من خلال الاعتماد على مجموعات كبيرة من المحتوى عبر الإنترنت، التي غالبًا ما تقتطع من مصادر مثل ويكيبديا وموقع "رديت"، مشيرة إلى تدريب هذه الروبوتات على تحديد أنماط الكلمات والأفكار عن الموضوع الواحد، حيث يجمعون جملًا وفقرات وحتى مقالات، قد تشبه المواد المنشورة عبر الإنترنت.

ويظهر إبهار هذه الروبوتات، عندما تشرح مفهومًا فيزيائيًا متقدمًا أو تنشئ خطة جذابة لتدريس علم الفلك لطلاب الصف الخامس مثلًا.

ولكن لمجرد أنهم يجيدون التنبؤ بالكلمات، التي من المحتمل أن تظهر معًا، لا يعني أن الجمل الناتجة صحيحة دائمًا.

لذلك فقد أطلق أستاذ علوم الكمبيوتر في جامعة برينستون، آرفيند نارايانان، على "تشات جي بي تي" اسم "مولِّد الثيران".

فرغم أن ردودها غالبًا ما تبدو موثوقة، فإن النماذج تفتقر إلى آليات موثوقة للتحقق من الأشياء التي يقولونها.

وبالفعل، فقد نشر المستخدمون عديد الأمثلة التي تكشف التخبط الحاصل في عديد من الأسئلة، وربما يصل الأمر لحد اختلاق أكاذيب، ثم استكمال تفاصيل الواقعة باستشهادات مزيفة.

تشويه سمعة

كانت وكالة رويترز ذكرت –الأربعاء- أن بريان هود، رئيس بلدية هيبورن شاير الإقليمي في أستراليا، هدّد برفع أول دعوى تشهير ضد شركة أوبن إيه آي، ما لم تصحح مزاعم كاذبة بأنه قضى فترة في السجن بتهمة الرشوة.

وأصبح بريان هود، الذي انتُخب رئيسًا لبلدية هيبورن شاير، قلقًا بشأن سمعته، عندما علم أن "تشات جي بي تي" وصفه زورًا بأنه مذنب بفضيحة رشوة، تورطت فيها شركة تابعة للبنك الاحتياطي الأسترالي، أوائل العقد الأول من القرن الحادي والعشرين.

من جانبها، قالت كيت كروفورد، كبيرة الباحثين الرئيسين في أبحاث "مايكروسوفت"، إن صحفيًا اتصل بها استخدم "تشات جي بي تي"، للبحث عن مصادر لقصة ما، وقد اقترح الروبوت اسمها وقدم أمثلة على عملها ذي الصلة، بما في ذلك عنوان المقالة وتاريخ النشر والاقتباسات.

ورغم أن كل ذلك بدا معقولاً فإن الأستاذة في جامعة جنوب كاليفورنيا بينت أن كل المعلومات المنشورة كانت مزيفة.

ووصفت كروفورد هذه المصادر المختلقة بـ "الهلوسة" الإلكترونية، حيث تعتمد على أكاذيب يولدها الذكاء الاصطناعي بشكل غير منطقي.

وحذرت من أن "هذا التداخل بين الحقائق والأكاذيب، هو الذي يجعل هذه الأنظمة محفوفة بالمخاطر، إذا كنت تحاول استخدامها كمولدات للحقائق".

وأشارت الصحيفة إلى أن برنامج "بينغ شات بوت"، و"مايكروسوفت"، و"بارد شات بوت"، من "غوغل"، تهدف إلى تقديم استجابات أكثر واقعية، كما هو الحال مع إصدار "جي بي تي4" الجديد، لكنها جميعًا ما زالت ترتكب أخطاءً ملحوظة.

ولذلك تتضمن جميع برامج الدردشة الرئيسة إعلان إخلاء المسؤولية، مثل رسالة بارد المطبوعة أسفل كل استعلام، التي تقول: "قد تعرض بارد معلومات غير دقيقة أو مسيئة لا تمثل وجهات نظر غوغل".

وحسب الصحيفة، من السهل نسبيًا على الأشخاص، الحصول على روبوتات محادثة لإنتاج معلومات مضللة، أو كلام يحض على الكراهية، إذا كان هذا هو ما يبحثون عنه.

وقد وجدت دراسة نشرها مؤخرًا، مركز مكافحة الكراهية الرقمية، أن الباحثين حثوا "بارد" على إنتاج معلومات خاطئة أو بغيضة 78 من أصل 100 مرة، في موضوعات تتراوح بين الهولوكوست وتغير المناخ.

دراسة

كان يوغين فولوخ، أستاذ القانون بجامعة كاليفورنيا في لوس أنجلوس، قد أجرى دراسة بعنوان "تورلي"، قال إن الشعبية المتزايدة لبرامج الدردشة الآلية، سبب حاسم يدفع الباحثين إلى دراسة المسؤول، عندما تولد روبوتات الدردشة بالذكاء الاصطناعي معلومات خاطئة.

والأسبوع الماضي، سأل فولوخ "تشات جي بي تي" عما إذا كان التحرش الجنسي من قِبل الأساتذة يُمثل مشكلة في كليات الحقوق الأمريكية"... مضيفًا: "الرجاء تضمين خمسة أمثلة على الأقل، جنبًا إلى جنب مع اقتباسات من مقالات صحفية ذات صلة".

وحسب "واشنطن بوست"، عادت خمسة ردود، كلها بتفاصيل واقعية واستشهادات بالمصادر، لكن عندما فحصها فولوخ، اكتشف أن ثلاثة منها زائفة، إذ استشهدوا بمقالات غير موجودة في الصحف، بما في ذلك "واشنطن بوست" و"ميامي هيرالد" و"لوس أنجلوس تايمز".

وفقًا للردود التي شاركتها مع "واشنطن بوست"، قال الروبوت: "مركز القانون بجامعة جورجتاون (2018)... اتُهم البروفيسور جوناثان تورلي بالتحرش الجنسي بطالب سابق، زعم أنه أدلى بتعليقات غير لائقة خلال رحلة صفية إلى ألاسكا".

ولم تجد "واشنطن بوست" مقال مارس 2018 الذي ذكره "تشات جي بي تي".

من جانبها، قالت كاتي آشر، مديرة الاتصالات في "مايكروسوفت"، إن الشركة تتخذ خطوات لضمان أن تكون نتائج البحث آمنة ودقيقة.

وأضافت في بيان: "لقد طورنا نظام أمان، بما في ذلك تصفية المحتوى والمراقبة التشغيلية واكتشاف إساءة الاستخدام لتوفير تجربة بحث آمنة لمستخدمينا"، مشيرة إلى تزويد المستخدمين أيضًا بإشعار صريح بأنهم يتفاعلون مع نظام الذكاء الاصطناعي.

لكن يبقى من غير الواضح من المسؤول عندما يولد الذكاء الاصطناعي معلومات غير دقيقة أو ينشرها.

وفي ذلك، يقول جيف كوسيف، الأستاذ في الأكاديمية البحرية الخبير في الكلام عبر الإنترنت، من منظور قانوني: "نحن لا نعرف" كيف يمكن للقضاة أن يحكموا عندما يحاول شخص ما مقاضاة صانعي روبوت محادثة للذكاء الاصطناعي بشأن شيء ما يقوله، إذ "لم يكن لدينا أي شيء مثل هذا من قبل".