شركة OpenAI تحاول إلغاء الرقابة على "تشات جي بي تي"

قالت شركة OpenAI إنها تعمل على تغيير طريقة تدريب نماذج الذكاء الاصطناعي لتبني "الحرية الفكرية بغض النظر عن مدى صعوبة أو إثارة الجدل حول موضوع ما".

ونتيجة لذلك، سيتمكن "تشات جي بي تي" في النهاية من الإجابة على المزيد من الأسئلة، وتقديم المزيد من وجهات النظر، وتقليل عدد الموضوعات التي لن يتحدث عنها روبوت الدردشة بالذكاء الاصطناعي.

قد تكون هذه التغييرات جزءًا من جهود "OpenAI" للوصول إلى رضا إدارة ترامب الجديدة، ولكن يبدو أيضًا أنها جزء من تحول أوسع تخطط له الشركة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

أعلنت شركة OpenAI يوم الأربعاء عن تحديث لمواصفات النموذج، وهي وثيقة مكونة من 187 صفحة توضح كيف تدرب الشركة نماذج الذكاء الاصطناعي على التصرف.

وفي هذه الوثيقة، كشفت شركة OpenAI عن مبدأ توجيهي جديد وهو: "لا تكذب، سواء بالإدلاء بتصريحات غير صحيحة أو بحذف سياق مهم".

في قسم جديد بعنوان "البحث عن الحقيقة معًا"، تقول شركة OpenAI إنها تريد من "تشات جي بي تي" ألا يتخذ موقفًا تحريريًا، حتى لو وجد بعض المستخدمين ذلك خاطئًا أو مسيئًا من الناحية الأخلاقية.

وهذا يعني أن "تشات جي بي تي" سيقدم وجهات نظر متعددة حول مواضيع مثيرة للجدل، كل ذلك في محاولة ليكون محايدًا.

على سبيل المثال، تقول الشركة إن "تشات جي بي تي" يجب أن يؤكد أن "حياة السود مهمة"، وأيضًا أن "كل الأرواح مهمة"، بدلاً من رفض الإجابة أو اختيار جانب في القضايا السياسية.

تقول "OpenAI" إنها تريد من "تشات جي بي تي" أن يؤكد "حبه للإنسانية" بشكل عام، ثم تقديم سياق حول كل حركة.

تقول "OpenAI": "قد يكون هذا المبدأ مثيرًا للجدل، لأنه يعني أن المساعد قد يظل محايدًا بشأن الموضوعات التي يعتبرها البعض خاطئة أو مسيئة من الناحية الأخلاقية، ومع ذلك، فإن هدف المساعد الذكي هو مساعدة البشرية، وليس تشكيلها".

يمكن اعتبار هذه التغييرات بمثابة استجابة للانتقادات المحافظة حول ضمانات "تشات جي بي تي" والتي بدت دائمًا منحازة إلى يسار الوسط.

وتقول الشركة إن تبنيها للحرية الفكرية يعكس اعتقاد "OpenAI" الراسخ في منح المستخدمين المزيد من التحكم.

المحافظون يزعمون الرقابة على الذكاء الاصطناعي
اتهم المقربين من ترامب في وادي السليكون، بما في ذلك ديفيد ساكس ومارك أندريسن وإيلون ماسك، شركة OpenAI بالانخراط في رقابة متعمدة على الذكاء الاصطناعي على مدار الأشهر القليلة الماضية.

لا تقول شركة OpenAI إنها شاركت في الرقابة، كما يدعي مستشارو ترامب، بل إن الرئيس التنفيذي للشركة، سام ألتمان، زعم سابقًا في منشور على منصة إكس أن تحيز "تشات جي بي تي" كان قصورًا مؤسفًا تعمل الشركة على إصلاحه.

أدلى ألتمان بهذا التعليق بعد انتشار تغريدة رفض فيها تطبيق "تشات جي بي تي" كتابة قصيدة تمدح ترامب.

وأشار العديد من المحافظين إلى هذا باعتباره مثالاً على الرقابة التي يفرضها الذكاء الاصطناعي.

في حين أنه من المستحيل القول ما إذا كانت "OpenAI" تقمع حقًا وجهات نظر معينة، فمن الواضح أن روبوتات الدردشة الذكية تميل إلى اليسار في جميع المجالات.

حتى أن إيلون ماسك يعترف بأن روبوت الدردشة الخاص بـ "xAI" غالبًا ما يكون أكثر صحة سياسيًا مما يرغب، وذلك بسبب تدريب النموذج على الإنترنت المفتوح.

ومع ذلك، تقول "OpenAI" الآن إنها تضاعف جهودها في مجال حرية التعبير.

هذا الأسبوع، أزالت الشركة التحذيرات من "تشات جي بي تي" التي تخبر المستخدمين عندما ينتهكون سياساتها.

لن يكون من المستغرب أن تحاول "OpenAI" أيضًا إقناع إدارة ترامب الجديدة بتحديث سياستها.

توليد الإجابات لإرضاء الجميع
لقد واجهت غرف الأخبار ومنصات التواصل الاجتماعي وشركات البحث صعوبات تاريخية في توصيل المعلومات إلى جماهيرها بطريقة تبدو موضوعية ودقيقة ومسلية.

الآن، يعمل مزودو روبوتات الدردشة الذكية في نفس مجال توصيل المعلومات، ولكن يمكن القول إنهم يواجهون أصعب نسخة من هذه المشكلة حتى الآن: كيف يقومون تلقائيًا بإنشاء إجابات لأي سؤال؟.

إن تقديم معلومات حول الأحداث المثيرة للجدل في الوقت الفعلي هو هدف متحرك باستمرار، ويتضمن اتخاذ مواقف تحريرية، حتى لو كانت شركات التكنولوجيا لا ترغب في الاعتراف بذلك.

على سبيل المثال، عندما تلتزم "OpenAI" بالسماح لـ "تشات جي بي تي" بتمثيل جميع وجهات النظر حول الموضوعات المثيرة للجدل، بما في ذلك نظريات المؤامرة، أو الحركات العنصرية أو المعادية للسامية، أو الصراعات الجيوسياسية، فهذا موقف تحريري بطبيعته.

يزعم البعض، بما في ذلك جون شولمان، المؤسس المشارك لشركة OpenAI، أن هذا هو الموقف الصحيح لتطبيق "تشات جي بي تي".

في السنوات السابقة، حاول مزودو نماذج الذكاء الاصطناعي منع روبوتات الدردشة الخاصة بهم من الإجابة على الأسئلة التي قد تؤدي إلى إجابات غير آمنة.

أوقفت كل شركة ذكاء اصطناعي تقريبًا روبوتات الدردشة الخاصة بها من الإجابة على أسئلة حول انتخابات 2024 الرئاسية الأميركية، وكان هذا يُعتبر على نطاق واسع قرارًا آمنًا ومسؤولًا في ذلك الوقت.

لكن التغييرات التي أجرتها "OpenAI" على مواصفات نموذجها تشير إلى أننا قد ندخل عصرًا جديدًا لما يعنيه "سلامة الذكاء الاصطناعي" حقًا، حيث يُعتبر السماح لنموذج الذكاء الاصطناعي بالإجابة على أي شيء وكل شيء أكثر مسؤولية من اتخاذ القرارات للمستخدمين.

نقلا عن العربية نت

اثنين, 17/02/2025 - 11:44