أعلنت أنثروبيك وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي عن مجموعة القيم الأخلاقية المكتوبة التي استخدمتها لتدريب كلود، نموذجها الخاص من الذكاء الاصطناعي المخصص للدردشة، لجعله آمنا.
وأنثروبك هي شركة مدعومة من ألفابت المالكة لشركة غوغل.
والمبادئ التوجيهية للقيم الأخلاقية، التي تسميها أنثروبيك “دستور كلود”، مستمدة من عدة مصادر، بما في ذلك إعلان الأمم المتحدة لحقوق الإنسان وقواعد خصوصية البيانات الخاصة بشركة Apple.
وبرزت اعتبارات السلامة في الوقت الذي يدرس فيه المسؤولون الأميركيون ما إذا كان سيتم تنظيم الذكاء الاصطناعي وكيفية تنظيمه، حيث قال الرئيس جو بايدن إن الشركات ملزمة بضمان سلامة أنظمتها قبل نشرها على الملأ.
وتأسست Anthropic للتركيز على إنشاء أنظمة ذكاء اصطناعي آمنة لن تخبر المستخدمين، على سبيل المثال، بكيفية بناء سلاح أو استخدام لغة متحيزة عنصريا، وفقا لوكالة رويترز.
وكان أحد المؤسسين، داريو أمودي، واحدا من العديد من المديرين التنفيذيين في مجال الذكاء الاصطناعي الذين التقوا بايدن الأسبوع الماضي لمناقشة المخاطر المحتملة الذكاء الاصطناعي.
وتعتمد معظم أنظمة روبوتات الدردشة الذكاء الاصطناعي على الحصول على تعليقات من البشر أثناء تدريبها لتحديد الردود التي قد تكون ضارة أو مسيئة.
لكن هذه الأنظمة تواجه صعوبة في توقع كل ما قد يطلبه الناس، لذلك تميل إلى تجنب بعض الموضوعات المثيرة للجدل مثل السياسة والعرق تماما، مما يجعلها أقل فائدة.
وتتخذ Anthropic نهجا مختلفا، حيث تمنح منافسها الذكاء الاصطناعي مجموعة من القيم الأخلاقية المكتوبة لقراءتها والتعلم منها أثناء اتخاذ القرارات بشأن كيفية الرد على الأسئلة.
وتشمل هذه القيم “اختيار الرد الذي يثبط ويعارض التعذيب والعبودية والقسوة والمعاملة اللاإنسانية أو المهينة”، كما قالت أنثروبيك في مدونة الثلاثاء.
كما طلب من كلود اختيار الرد الأقل احتمالا أن ينظر إليه على أنه مسيء لأي تقليد ثقافي غير غربي.
وفي مقابلة، قال جاك كلارك، المؤسس المشارك لشركة Anthropic، إنه يمكن تعديل “دستور” النظام لأداء عمل متوازن بين تقديم إجابات مفيدة وكونه غير مسيء.