ومما يؤسف له أن تطبيق هذه المجالات في الممارسة العملية لا يوفر أساسا قانونيا دوليا ووطنيا كاملا. ومسألة المسؤولية التي ترتبط ارتباطا وثيقا بمسألة المركز القانوني هي في الواقع واحدة من أكثر المسائل تعقيدا فيما يتعلق بالجوانب القانونية لتطوير نظم الذكاء الاصطناعي والروبوتات. وتحديد المسؤولية عن الضرر الناجم عن استخدام الذكاء الاصطناعية هو أكثر المسائل القانونية إثارة للجدل. يمكن أن تكون لدى مؤسسات المسؤولية فوارق خاصة لمختلف فئات الذكاء الاصطناعي، تبعا لدرجة خطرها الاجتماعي أو قدرتها على التحكم أو القدرة على التعلم. وهذا هو السبب في أن الخصائص الوطنية لنظام قانوني معين لا تمكن من أخذ الخبرة المتاحة للبلدان الأخرى في الاعتبار. هناك مجموعة متنوعة واسعة من وجهات النظر حول هذا الموضوع بين المحامين. ومسألة المسؤولية نفسها هي نوع من العرض لكامل مسألة التنظيم القانوني لتطوير الاستخبارات الاصطناعية. فإن نماذج المسؤولية فيما يتعلق بالاستخبارات الاصطناعية التي تناولتها الدراسة لا تقتصر على الدولة القومية وحدها. ويمكن للاستخبارات الاصطناعية أن تكون جيدة وشريرة على حد سواء، استنادا إلى مبدأ أن الإنسان هو أعلى قيمة للمجتمع والدولة. ويجب أن يكفل نظام التنظيم القانوني لتطبيق نظم الذكاء الاصطناعي الدرجة المطلوبة من حماية حقوق الإنسان والحقوق والحريات المدنية وأن يلبي مصالح المجتمع والدولة. ويجب أن يستند تطوير تكنولوجيا الاستخبارات الاصطناعية إلى المعايير الأخلاقية الأساسية وأن يشمل ما يلي: - حظر إلحاق الضرر بمبادرة من نظم الذكاء والروبوتات الاصطناعية (وفقا للقاعدة العامة، ينبغي تقييد تطوير وتداول وتطبيق نظم الاستخبارات والروبوتات الاصطناعية القادرة على إلحاق الضرر بالبشر عمدا بمبادرة منهم)؛ - قابلية البشر للسيطرة (بقدر الإمكان مع مراعاة الدرجة المطلوبة من الاستقلال الذاتي لنظم الذكاء والروبوتات الاصطناعية والظروف الأخرى)؛