العلماء يطورون "كاشف كذب" للذكاء الاصطناعي

طوّر علماء من معهد ماساتشوستس للتكنولوجيا (MIT) برنامجا يعمل كـ"كاشف كذب" يُجبر أنظمة الذكاء الاصطناعي على الإبلاغ بصدق عن شكوكها أو عدم تأكدها.
وأطلق خبراء من معهد ماساتشوستس للتكنولوجيا (MIT) شركة ناشئة تهدف إلى تدريب أنظمة الذكاء الاصطناعي على تحديد حدود معارفها، مع إلغاء تلقائي للقرارات غير الموثوق بها.
وتقوم المنصة التي طورتها الشركة بتقييم موثوقية استنتاجات الذكاء الاصطناعي فورا، مما يساعد هذه الأنظمة على تجنب الأخطاء في مجالات حساسة مثل الصيدلة والاتصالات والقيادة الذاتية للسيارات.
وطورت شركة Themis AI منصة تُدعى "كابسا" (Capsa) قادرة على التعامل مع مختلف نماذج تعلم الآلة، بما في ذلك النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT.
وتقوم المنصة بتحليل البيانات التي يعالجها الذكاء الاصطناعي للكشف عن أي مؤشرات تدل على الشك أو التحيز أو نقص في البيانات. فعلى سبيل المثال، إذا قدم النموذج تنبؤا يعتمد على بيانات غير كافية، تصنفه "كابسا" على أنه تنبؤ غير موثوق وتقترح إجراء التعديلات اللازمة.
في القطاع الدوائي على وجه الخصوص، تتحقق المنصة من مدى استناد التنبؤات إلى بيانات فعلية، مميزة إياها عن التخمينات غير المدعومة. وتتميز المنصة بسرعة معالجة فائقة لا تتجاوز أجزاء الثانية، مما يجعلها مناسبة حتى للتشغيل على الأجهزة الطرفية مثل معالجات الهواتف الذكية.
تُستخدم المنصة حاليا في شركات الاتصالات لأتمتة الشبكات وشركات النفط والغاز لتحليل الصور الزلزالية والشركات الصيدلة للتنبؤ بخصائص الأدوية.
ويمكن أن تزيد تلك التقنية من أمان الذكاء الاصطناعي وتعزز شفافيته والثقة بتكنولوجيات المستقبل.
للمزيد تابع خليجيون نيوز على: فيسبوك | إكس | يوتيوب | إنستغرام | تيك توك