هوش مصنوعی با ادغام در سیستمهای تسلیحاتی نه تنها خودمختاری آنها را ارتقا داده بلکه همچنین با توجه به فقدان یا کنترل کمرنگ انسانی در کاربست آنها، مسئولیت دولتها در باب حفاظت از حقوق بشردوستانه را پررنگتر نموده است. در نتیجه این پرسش مطرح میشود که آیا هماکنون قواعدی در حقوق بینالملل بشردوستانه، برای محدودکردن کاربرد سیستمهای تسلیحاتی خودمختار وجود دارد؟ نویسنده بر این باور است فناوری جدید لزوماً به قوانین جدید نیاز ندارد. اگرچه اینک معاهده بینالمللی در زمینه کاربرد تسلیحات مبتنی بر هوش مصنوعی در مخاصمات مسلحانه وجود ندارد اما با توسل به اصول حقوق بینالملل بشردوستانه (اصل تفکیک، تناسب، اصل بشریت و منع آسیب غیرضروری) و اتکا به تعهدات عام دولتها برای تضمین اجرای حقوق بینالملل بشردوستانه و تعهدات خاص آنها (تعهد به بررسی حقوقی سلاحهای جدید، تعهد به انجام اقدامات احتیاطی و تعهد به کنترل تسلیحات) میتوان به طراحی، توسعه بالقوه و کاربرد چنین تسلیحاتی در فضای مخاصمات پرداخت. با این حال، درج اصول تفکیک، تناسب و اقدامات احتیاطی در یک هوش مصنوعی هنوز از نظر فنی امکانپذیر نیست که باعث میشود انطباق این سلاحها با حقوق بشردوستانه همچنان به کنترل معنادار انسانی وابسته باشد. بر مبنای این واقعیت، حقوق بشردوستانه خواستار یک رویکرد انسان-محور برای طراحی، تولید، توسعه و استفاده از هوش مصنوعی نظامی در مخاصمات مسلحانه است.