حدثت شركة OpenAI سياسة استخدام منتجاتها القائمة على الذكاء الاصطناعي ChatGPT ونماذج الذكاء الاصطناعي الأخرى وستتوقف عن تقديم استشارات طبية وقانونية للمستخدمين.
ولن يتمكن الذكاء الاصطناعي ChatGPT من تقديم نصائح فردية، أو تقييم المخاطر القانونية لسيناريو محدد، أو صياغة استراتيجية دفاع في المحكمة أو إنشاء وثائق إجرائية.
وحُظر تشخيص الأمراض ووصف الأدوية واختيار الجرعات بالإضافة إلى تفسير الصور الطبية مثل صور الأشعة السينية، التصوير بالرنين المغناطيسي، التصوير المقطعي المحوسب وصور الإصابات الجلدية.
وسيقدم ChatGPT فقط معلومات مرجعية عامة ويوصي بشدة بالتواصل مع متخصص مرخص – طبيب أو محام، في حال محاولة المستخدم طلب مثل هذه المعلومات.
وتأتي هذه القيود لتعزيز حماية المستخدمين، وتُطبق بشكل عام على جميع منتجات الشركة، بما في ذلك واجهة الدردشة وAPI (واجهة البرمجة التطبيقية).
وأعلنت OpenAI عن نيتها من كانون الأول تخفيف سياسة المحتوى للجمهور البالغ لدردشة ChatGPT.، وسيحصل المستخدمون الذين اجتازوا التحقق من العمر على وصول إلى نسخة أقل رقابة من الدردشة الآلية، بما في ذلك المواد الإيروتيكية، وفقاً لكلام رئيس الشركة سام التمان.
وأضافت OpenAI إلى ChatGPT ميزة الرقابة الأبوية. الوظيفة الجديدة ما يسمح للوالدين بربط حساباتهم بحساب ابنهم المراهق وتعديل القيود العمرية، وذلك نهاية أيلول.













