أصدرت مايكروسوفت أداة جديدة تُدعى “Correction”، والتي تستخدم التحقق من الحقائق لتصحيح الأخطاء الناتجة عن تخيلات الذكاء الاصطناعي بشكل تلقائي. بالإضافة إلى ذلك، فإن آلية الكشف عن الأسس في أمان محتوى Azure AI تشمل ذلك حاليا.
لقد تطورت روبوتات الدردشة المعتمدة على الذكاء الاصطناعي (AI) بشكل كبير في السنوات الأخيرة، خاصة منذ إطلاق ChatGPT، لمساعدة المستخدمين في العثور على المعلومات بسرعة. لكن المشكلة الرئيسية مع هذه النماذج الذكية – التي تقدم معلومات غير دقيقة أو تظهر هلوسات – هي أنها تميل إلى إنتاج مواد مضللة أو مزيفة.
أصدرت مايكروسوفت أداة “Correction”، المصممة لتحرير المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يحتوي على أخطاء واقعية، من خلال منشور مدونة جديد في محاولة لمعالجة هذه المشكلة. يتم الآن تقديمه كجزء من واجهة برمجة تطبيقات أمان المحتوى للذكاء الاصطناعي من مايكروسوفت Azure، وهو متوافق مع جميع نماذج الذكاء الاصطناعي التي تولد النصوص، مثل GPT-4o من OpenAI وLlama من ميتا. لكن في الوقت الحالي، يتم اختباره كنموذج تجريبي.
ستستخدم هذه الميزة قدرة “كشف عدم الارتباط”، التي تدعي مايكروسوفت أنها “تحدد المحتوى غير المرتبط أو المتخيل”. بعد ذلك، سيتم التحقق من البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي من خلال الأداة عبر مقارنتها بمصدر دقيق، والذي قد يكون وثيقة أو نصوص مقدمة.
أصدرت مايكروسوفت عددًا من التحسينات لتعزيز خصوصية وأمان أنظمة الذكاء الاصطناعي، بالإضافة إلى وظيفة التصحيح. مع ثلاثة مبادئ رئيسية: الأمان من التصميم، والأمان بشكل افتراضي، وعمليات آمنة. وسعت الشركة مبادرتها المستقبلية الآمنة. (SFI).
بالإضافة إلى ذلك، أصدرت مايكروسوفت نموذج Whisper لخدمة Azure OpenAI. تضمن هذه الميزة أمان بيانات العملاء الحساسة، خاصة أثناء استنتاجها. بسبب ذلك، فإن هذا يكون مفيدًا بشكل خاص للقطاعات مثل المالية، حيث إن الحفاظ على خصوصية البيانات أمر بالغ الأهمية.