أوبن إيه آي، مُصنعو تشات جي بي تي، يلتزمون بتطوير أنظمة ذكاء اصطناعي آمنة

صورة1.png

قد نشرت OpenAI مشاركة مدونة جديدة تلتزم بتطوير الذكاء الاصطناعي (AI) الذي يكون آمنًا ومفيدًا على نطاق واسع.

تشات جي بي تي، مدعوم من طراز جي بي تي-٤ الأحدث من أوبن آي، يُمكِن تحسين الإنتاجية، تعزيز الإبداع، وتوفير تجارب تعلم مُصمَّمة خصيصاً.

ومع ذلك، يعترف OpenAI بأن أدوات الذكاء الاصطناعي لديها مخاطر متأصلة يجب التعامل معها من خلال تدابير السلامة والتنفيذ المسؤول.

هنا ما تقوم الشركة بفعله للحد من تلك المخاطر.

ضمان السلامة في أنظمة الذكاء الاصطناعي

تقوم OpenAI بإجراء اختبارات شاملة، وتبحث عن إرشادات خارجية من الخبراء، وتقوم بتعديل نماذج الذكاء الاصطناعي بناءً على الملاحظات البشرية قبل إطلاق الأنظمة الجديدة.

إطلاق GPT-4 ، على سبيل المثال ، تسبقه أكثر من ستة أشهر من الاختبارات لضمان سلامته وتوافقه مع احتياجات المستخدم.

يعتقد أوبن إيه آي أن الأنظمة الذكاء الاصطناعي المتينة يجب أن تخضع لتقييمات سلامة دقيقة وتدعم الحاجة إلى التنظيم.

التعلم من استخدام العالم الحقيقي

الاستخدام العملي الفعلي هو عنصر حاسم في تطوير أنظمة الذكاء الاصطناعي الآمنة. من خلال إطلاق نماذج جديدة بحذر لقاعدة مستخدمين تنمو تدريجيًا ، يمكن لـ OpenAI تحقيق تحسينات تتعامل مع المشكلات التي لم يتم توقعها.

من خلال توفير نماذج الذكاء الاصطناعي عبر واجهة برمجة التطبيقات وموقع الويب الخاص بها، يمكن لـ OpenAI مراقبة سوء الاستخدام واتخاذ التدابير المناسبة وتطوير سياسات متطورة لتحقيق توازن المخاطر.

حماية الأطفال واحترام الخصوصية

تُعطي OpenAI الأولوية لحماية الأطفال من خلال طلب التحقق من العمر ومنع استخدام التكنولوجيا لإنشاء محتوى ضار.

الخصوصية هي جانب آخر أساسي في عمل OpenAI. يستخدم المنظمة البيانات لجعل نماذجها أكثر فائدة مع حماية المستخدمين.

بالإضافة إلى ذلك، تقوم OpenAI بإزالة المعلومات الشخصية من مجموعات البيانات التدريبية وضبط النماذج لرفض طلبات المعلومات الشخصية.

ستستجيب شركة OpenAI لطلبات حذف المعلومات الشخصية من أنظمتها.

تحسين الدقة الواقعية

الدقة الواقعية هي تركيز كبير لشركة OpenAI. يعتبر GPT-4 أكثر بنسبة 40٪ احتمالية لإنتاج محتوى دقيق من سابقه GPT-3.5.

تسعى المنظمة إلى تثقيف المستخدمين حول قيود أدوات الذكاء الاصطناعي وإمكانية وجود انحرافات

البحث المستمر والمشاركة

تؤمن OpenAI بتكريس الوقت والموارد للبحث في تقنيات التخفيف الفعالة وتقنيات المواءمة.

ومع ذلك، هذا ليس شيئًا يمكنه فعله بمفرده. يتطلب التعامل مع قضايا السلامة مناقشة واسعة النطاق، وتجربة، ومشاركة بين الأطراف المعنية.

تظل أوبن إيه آي ملتزمة بتعزيز التعاون والحوار المفتوح لإنشاء بيئة آمنة للذكاء الاصطناعي.

انتقادات حول المخاطر الوجودية

على الرغم من التزام OpenAI بضمان أمان نظمها الذكاء الاصطناعي وفوائدها الواسعة، لكن منشور بلوقها أثار انتقادات على وسائل التواصل الاجتماعي.

عبر مستخدمو تويتر عن خيبة أملهم، مؤكدين أن OpenAI لا تتعامل مع المخاطر القائمة للتنمية الذاتية الذكاء الاصطناعي.

صرح أحد مستخدمي تويتر بخيبة أمله، متهمًا OpenAI بخيانة مهمتها الأساسية والتركيز على التجارة اللا مسؤولة.

المستخدم يشير إلى أن نهج OpenAI في مجال الأمان سطحي وأكثر اهتماما بإرضاء النُقاد من التعامل مع المخاطر الجوهرية الحقيقية.

هذا مخيبٌ للآمال ولا فائدة له وهو تزيين نافذة لتعزيز الصورة العامة.

حتى لا تذكر حتى المخاطر الوجودية للذكاء الاصطناعي التي تشكل اهتمامًا أساسيًا للعديد من المواطنين والتقنيين وباحثي الذكاء الاصطناعي وقادة صناعة الذكاء الاصطناعي بما في ذلك الرئيس التنفيذي الخاص بكم @sama. يعتبر @OpenAI أمرًا خائنًا…

— جيوفري ميلر (@primalpoly) 5 أبريل 2023

مستخدم آخر عبر عن عدم رضاه عن الإعلان، يشير إلى أنه يتجاوز المشاكل الحقيقية ويظل غامضًا. يسلط المستخدم الضوء أيضًا على أن التقرير يتجاهل القضايا الأخلاقية الحرجة والمخاطر المرتبطة بوعي الذكاء الاصطناعي ، مما يعني أن نهج OpenAI في قضايا الأمان غير كافٍ.

كمعجب بـ GPT-4 ، أشعر بخيبة أمل من مقالتك.

تجاهل القضايا الحقيقية ، وضبابية، وتجاهل القضايا الأخلاقية الحاسمة والمخاطر المرتبطة بوعي الذكاء الاصطناعي.

أنا أقدر الابتكار ، ولكن هذا ليس النهج الصحيح لمعالجة قضايا الأمان.

- فرانكي لابس (@FrankyLabs) April 5, 2023

تسليط الضوء على الانتقادات يؤكد المخاوف الأوسع نطاقًا والنقاش المستمر حول المخاطر الوجودية التي يشكلها تطوير الذكاء الاصطناعي.

بينما يوضح الإعلان الخاص بـ OpenAI التزامها بالسلامة والخصوصية والدقة، فمن الضروري أن ندرك الحاجة لمزيد من المناقشة لمعالجة القلق الأكبر.

المقالات ذات الصلة

عرض المزيد >>

أطلق العنان لقوة الذكاء الاصطناعي مع HIX.AI!