Na incubadora... Afonso Seixas-Nunes
Na incubadora com... | 12-12-2025
Na mais recente edição da rubrica “Na Incubadora com…”, recebemos Afonso Seixas-Nunes, Prof. e especialista em Direito Internacional Público e Humanitário na Saint Louis University (USA), para uma conversa essencial sobre os desafios éticos e legais que surgem com a crescente utilização da Inteligência Artificial em contextos militares. Com uma vasta experiência académica e investigativa nesta área, Afonso Seixas-Nunes ajudou-nos a compreender como os avanços tecnológicos estão a transformar a condução de conflitos armados e que questões de responsabilidade, regulamentação e proteção de civis se tornam cada vez mais urgentes. Uma entrevista que esclarece, desafia e abre caminho para uma reflexão necessária sobre o futuro da guerra e da tecnologia.
P.: A Inteligência Artificial está a ser cada vez mais usada em contextos militares. Como avalia o impacto atual da IA na condução de conflitos armados, e quais as mudanças éticas que considera mais urgentes para evitar abusos ou decisões que violem o Direito Humanitário?
R.: A Inteligência artificial e o tema do dia. Tornou-se, por assim, dizer o tema da moda. No entanto, na grande maioria das situações, a minha perceção é que não sabemos bem do que estamos a falar. IA e' utilizada no contexto de conflitos armadas desde os anos 60. Assim, e em primeiro lugar, IA não é nada de novo. O que é realmente novo e desafiante são os avanços no campo do Machine Learning, Deep Learning, GenAI (LLM). Estes avanços colocam questões relativas a dissociação do risco (maior distância entre o agressor e a vítima) mas sobretudo dissociação de comunicação. O fenómeno de dissociação de comunicação é o problema mais urgente: como é que os operadores humanos podem certificar a veracidade da DATA e a respetivo processamento de dados. Deste modo, podemos ter um sistema que identifica X como alvo militar e quando efetivamente o sistema cometeu um erro de identificação. A possibilidade de erros causados pela IA e o grande desafio ético e jurídico.
P.: Os sistemas de armas autónomos desafiam conceitos tradicionais de responsabilidade. Na sua opinião, quem deveria ser responsabilizado quando um algoritmo comete um erro letal, e como isso se enquadra no Direito Internacional?
R.: O Direito Humanitário (ou Direito da Guerra) assenta no paradigma da responsabilidade individual, isto e, a responsabilidade dos soldados e do comandante militar. IA coloca efetivamente desafios no campo da responsabilidade da forma como tem vindo a ser entendida e aplicada. Não podemos esquecer, no entanto, a responsabilidade internacional do Estado pelas armas que emprega no campo de batalha. No campo da responsabilidade individual, na minha opinião, a responsabilidade legal tem de ser alargada de forma a incluir programadores e designers. Esta conclusão, que pode parecer logica, coloca desafios substantivos na forma como o Direito Penal Internacional tem estruturados os elementos dos crimes internacionais.
P.: O Direito Internacional consegue acompanhar a velocidade das inovações tecnológicas em sistemas de combate, ou já estamos perante lacunas legais significativas?
R.: Esta questão é a questão central. A resposta é, no entanto, "não sei". Porquê? Porque IA evolui de uma forma que e quase impossível acompanhar juridicamente. Os avanços no campo da IA não são apenas no campo da guerra, mas em todas as áreas da sociedade humana, por exemplo, no campo da medicina. A regulamentação da IA, dependendo da área na qual e aplicada, exige respostas diferentes. No campo da guerra acrescente a dificuldade que os Estados não partilham, nem podem partilhar, os desenvolvimentos no campo da tecnologia militar. Desta forma, trabalhar com as forcas armadas de um Estado é fundamental. Verdade seja dita que muitos Estados, com particular relevo a Dinamarca, Holanda e o UK, tem feito enormes esforços nesse sentido. Os Estados, ao contrário do que se pensa, querem atuar no âmbito do Direito. O exemplo recente da forma como a Federação Russa conduz as suas operações militares é uma terrível exceção na sua extensão e desrespeito pelo Direito Humanitário.
P.: Que mecanismos práticos poderiam ser implementados para garantir que operadores militares ou desenvolvedores de IA cumpram o Direito Internacional e Humanitário?
R.: Esta e uma questão fundamental. Os Estados têm uma obrigação, de acordo com o Direito Humanitário, de formar e treinar as suas forcas armadas. Esta formação não concerne apenas o que pode ou não pode ser atacado, mas abrange igualmente a obrigação do Estado em formar e a treinar as suas forcas armadas no campo da IA. Este vai ser o grande desafio para as forcas armadas portuguesas, porque formar e treinar as forcas armadas no campo das novas tecnologias implica um enorme investimento humano e financeiro por parte do Estado.
P.: Até que ponto o desenvolvimento de sistemas de armas autónomos é compatível com os princípios de necessidade, proporcionalidade e humanidade previstos pelo Direito Internacional?
R.: Esta pergunta levar-me-ia a páginas de considerações. Para ser breve, a resposta é: “Depende”. Sem dúvida que os sistemas autónomos podem trazer uma maior eficiência na identificação de alvos militares e no impacto do uso da forca em relação a proteção dos civis e dos objetos civis. O problema é: “O que acontece quando as coisas correm mal?”