بحسب نفس الباحث يمكن تحقيق الحماية من مخاطر تطبيقات الذكاء الاصطناعي من خلال 7 طرق:
- وضع أنظمة لحماية خصوصية الأفراد والحفاظ على الشفافية في جمع البيانات.
- وضع مبادئ توجيهية أخلاقية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول ولأغراض مفيدة فقط.
- تنفيذ قوانين للحماية من إساءة استخدام الذكاء الاصطناعي مثل منع التمييز، وضمان الوصول العادل إلى الفرص.
- وضع سياسات للحد من الأضرار المحتملة للذكاء الاصطناعي، مثل الحد من الاستخدام المحتمل لتقنية التعرف على الوجه للمراقبة.
- وضع معايير واضحة للتطوير المسؤول واعتماد تقنيات الذكاء الاصطناعي والتعلم الآلي، بما في ذلك بروتوكولات الاختبار الصارمة قبل النشر.
- مطالبة الشركات التي تقوم بتطوير تقنيات الذكاء الاصطناعي بتوفير مستوى عالٍ من الأمان وتحمل المسؤولية عن أي آثار سلبية قد تحدثها التكنولوجيا الخاصة بهم على المجتمع.
- توفير التعليم والتدريب على الآثار الأخلاقية والمخاطر وأفضل الممارسات لاستخدام تقنيات الذكاء الاصطناعي من أجل ضمان نشرها