Introdução
Com o desenvolvimento na ciência e tecnologia, a inteligência artificial tem vindo a mudar a vida das pessoas. As concretizações das pessoas no que toca a artificial inteligência estão muito relacionadas com a inovação. Há situações nas quais pessoas foram substituídas por inteligência artificial, por exemplo, no jogo de xadrez, o robot Alpha foi consagrado campeão mundial.
Este desenvolvimento pode tornar-se preocupante se as máquinas ultrapassarem a inteligência dos humanos. Numa lente jurídica, quem é responsável pelo acidente causado por um carro automatizado? Depois do incidente, a lei regula e restringe, mas não pode mitigar os danos que já foram causados. No entanto, existem muitas lacunas no que toca à inteligência artificial, muitas funções não estão, ainda, aprimoradas. Por exemplo, a simulação do robot não se equipara à mente humana, há limitações na compreensão das pessoas e contextos sociais e é propenso a crises[1].
Contudo, a utilização da inteligência artificial apresenta várias questões éticas ao mesmo tempo que provoca crises. É preciso que seja analisada para consciencializar as pessoas sobre o tema. As questões éticas trazidas pela aplicação da tecnologia estão presas com o desenvolvimento da inteligência artificial para o benefício da humanidade.
1. Contextualização
O uso de inteligência artificial em sistemas judiciais em todo o mundo está a aumentar, aparecendo assim mais questões éticas para serem exploradas. A inteligência artificial pressupostamente pode avaliar casos e aplicar a justiça de uma maneira melhor, mais rápida e mais eficiente do que um juiz.
Os métodos de inteligência artificial podem ter um enorme impacto em várias áreas, desde profissões jurídicas e judiciárias até ao auxílio da tomada de decisões de órgãos públicos legislativos e administrativos. Por exemplo, eles podem aumentar a eficiência e precisão dos advogados tanto no aconselhamento quanto no contencioso. Os sistemas de software existentes ajudam os juízes através de ferramentas de inteligência artificial na elaboração de novas decisões. Estas tendência, para um maior uso de sistemas automatizados, tem sido descrita como a automatização da justiça. Alguns argumentam que os sistemas de inteligência artificia podem ajudar a criar um sistema de justiça criminal mais justo, no qual as máquinas podem avaliar e pesar fatores relevantes, de melhor forma do que os humanos, aproveitando sua velocidade e grande ingestão de dados, contudo isto ainda não acontece, e não se prevê que possa acontecer num futuro muito próximo[2].
2. Inteligência Artificial no Direito Internacional
Até agora não há regulamentos internacionais bem constituídos, há tentativas ao nível europeu de várias organizações, semelhante a acordos contra proliferação de armamento nuclear e destruição massiva.
Os Estados apresentam também algum nível de ceticismo, especialmente as grandes potencias militares no que toca ao regulamento do uso da inteligência artificial nas áreas da defesa, países como a China, Estados Unidos e Rússia, podem não querer ser os primeiros a impor os limites na pesquisa e na utilização do uso da inteligência artificial, que depois podem não ser respeitados pelos adversários.
A Comissão Europeia em 2021 lançou um quadro regulamentar sobre inteligência artificial, no qual apresenta 4 níveis de risco. A União Europeia está a tentar criar uma estrutura jurídica e ética para o uso de IA que respeite os direitos humanos fundamentais.
Quatro níveis de risco[3]:
- Risco Inaceitável – “Será proibido tudo o que for considerado uma clara ameaça para os cidadãos europeus: desde a classificação social pelos governos aos brinquedos que utilizam a assistência vocal para incentivar comportamentos perigosos.”
- Risco Elevado – “Sistemas que serão cuidadosamente avaliados antes de serem introduzidos no mercado, bem como durante todo o seu ciclo de vida (Administração da justiça e processos democráticos; Migração, asilo e gestão dos controlos de fronteiras; Ensino e formação profissional, etc).”
- Risco Limitado – “Sistemas de inteligência artificial como os robôs de conversação (chatbots) sujeitos a obrigações mínimas de transparência, destinadas a permitir que aqueles que interagem com o conteúdo tomem decisões bem fundamentadas.”
- Risco Mínimo – “livre utilização de aplicações como jogo de vídeo ou filtros de correio eletrónico não solicitado (spam) baseados na inteligência artificial.”
Esta categorização pode ser considerada um bom começo, a União Europeia encontra-se bem posiciona para iniciar o diálogo sobre normas jurídicas, devido a ser um mercado muito grande e do qual muitos querem fazer parte.
Contudo, muitas das normas até agora disponibilizadas pela União Europeia podem ser consideradas vagas, por exemplo, conceitos como Human Centered AI, thrustworthy AI, Inteligeble AI, apesar de serem um bom ponto de partida para a utilização ética, é necessário uma clarificação para que possa ser estabelecido um padrão de quais são os algoritmos que podem ser usados.
3. Os limites do uso ético da inteligência artificial como método de defesa
Não é uma opção a não utilização da inteligência artificial, devido a isto torna-se mais do que nunca necessário criar regulamentação e limites. Já existem sugestões de como conciliar o uso da inteligência artificial com os atuais dilemas, não sendo nenhuma das sugestões perfeitas.
Uma das sugestões dada é a obrigatoriedade de que passe a estar presente, em todos os momentos, um ator humano como um decisor final de qualquer decisão de um sistema de inteligência artificial que possa culminar em morte de seres humanos. Assim poderá ser possível manter o nível de responsabilidade moral para decisões que têm grandes impactos.
O dilema securitário surge devido à incerteza sobre quais as medidas que os outros países estão a adotar, isto é, se o adversário de um Estado tiver a utilizar armamento totalmente automatizado este conseguirá ter um tempo de resposta muito superior ao de qualquer mecanismo que esteja a ser controlado por um humano.
Contudo tem de ser tido em conta que já foram evitados desastres devido à decisão final ser tomada por um humano, por exemplo, o caso de Stanislav Petrov – conhecido como o homem que salvou o mundo. A 26 de setembro de 1983, Petrov, tenente-coronel no exército da URSS, controlava a rede de radares e satélites contra misseis atómicos norte-americanos.
Durante a madrugada os alarmes foram acionados alertando que tinham sido lançados, menos de uma dezena, de misseis em direção à URSS, os radares não conseguiam detetar os mísseis, Petrov, na altura, assumiu que poderia ter sido um erro do algoritmo. Este estranhou que tivessem a ser apenas lançados cinco misseis por parte dos Estados Unidos da América. Poucos minutos depois, o radar confirmou que não havia nenhum ataque a decorrer. Nesta situação, se fosse um sistema totalmente automatizados, teria levado ao início de uma guerra nuclear.
4. Dilemas
4.1 Responsabilidade
Não é possível dotar sistemas automatizados de moralidade, os sistemas automatizados têm algoritmos que contêm informação sobre o que fazer em cenários concretos. Para que a responsabilidade moral possa ser atribuída é sempre necessário que haja a intervenção humana para que possa ser explicado perante a justiça o acontecimento.
Responsabilidade, enquanto um conceito, está cada vez mais fraca no contexto dos sistemas da inteligência artificial, a responsabilidade pertence a todos e a nenhum ao mesmo tempo (fabricantes, proprietário, sistema automático). Para facilitar esta atribuição de responsabilidade, há a possibilidade da implementação de matrículas nos sistemas de inteligência artificial para que se saiba sempre, no mínimo, quem é o proprietário.
4.2 Racismo
O racismo tem sido apresentado como um dos dilemas éticos do uso da inteligência artificial. É preocupante sistemas que têm como função prever futuros comportamentos de seres humanos, para análise de risco, seguirem preconceitos, sendo uma das áreas mais problemáticas o preconceito racista destes sistemas. Em vários casos já é tido em atenção a questão racial e étnica, e por isso mesmo, há tentativas para que a etnia do individuo não possa ser um fator em análise.
No entanto, fatores que por vezes estão relacionados são tidos em conta, por exemplo, código-postal, nível de educação, núcleo familiar. Muitas destas variantes em análise, acabam por levar a resultados que são agrupados, em grande parte, por grupos étnicos.
4.3 Evolução da Inteligência Artificial
A conceptualização de um sistema de inteligência artificial, que consiga chegar aos níveis dos seres humanos, ainda não foi posta em prática. Apesar dos avanços em machine learning há aspetos que são difíceis e parecem até impossíveis de aplicar à inteligência artificial, como o senso comum.
Os algoritmos não têm a capacidade que todos os seres humanos possuem, de avaliar as situações de forma lógica e critica, e acima de tudo a inteligência artificial ainda não consegue analisar o contexto.
Posto isto, há cientistas que acreditam que com o desenvolvimento tecnológico, está cada vez mais próximo o futuro no qual os sistemas de inteligência artificial se vão tornar mais complexos e poderá até tornar-se difícil para os humanos entender o porque da tomada de decisões dos sistemas automatizados.
Caso este cenário se torne real, ficará ao critério dos humanos se continuam a ter sentido critico ou se somente decidem ter em conta as decisões tomas pelos sistemas automatizados, mesmo que não percebam de onde vêm.
5. Autocracias e Democracias – Dilemas de Utilização da inteligência artificial
Os regimes autocratas, têm a vantagem de conseguir adquirir uma grande quantidade de informação dos seus cidadãos. Os sistemas de inteligência artificial são alimentados de informação, quanto mais informação estes tiverem acesso melhor será a sua performance. Na China há tentativas de sistemas centralizados, que acumulam toda a informação dos indivíduos, desde informação sobre registos médicos, a seguros e até mesmo registo criminal, para que a análise feita pelos algoritmos possa ter todos estes fatores em conta.
Os regimes democratas têm a vantagem de que os temas podem ser abertos a diálogo, que estimulam o sentido critico das medidas que poderão vir a ser tomadas. É necessários que as democracias ponham em práticas os seus valores e normas para que as decisões sobre inteligência artificial sejam postas em prática de forma segura.
23 de março de 2022
Letícia Oliveira
EuroDefense Jovem Portugal
[1] Ma, L., Zhang, Z., & Zhang, N. (2018). Ethical Dilemma of Artificial Intelligence and its Research Progress. IOP Conference Series: Materials Science and Engineering, 392(6), 062188. https://doi.org/10.1088/1757-899X/392/6/062188
[2] Etzioni, A., & Etzioni, O. (2017). Incorporating Ethics into Artificial Intelligence. The Journal of Ethics, 21(4), 403–418. https://doi.org/10.1007/s10892-017-9252-2
[3] Comissão Europeia, “Excelência e confiança na inteligência artificial.”
Fontes:
Comissão Europeia. (sem data). Excelência e confiança na inteligência artificial . Comissão Europeia – European Commission. Obtido 15 de abril de 2022, de https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_pt
Etzioni, A., & Etzioni, O. (2017). Incorporating Ethics into Artificial Intelligence. The Journal of Ethics, 21(4), 403–418. https://doi.org/10.1007/s10892-017-9252-2
EuroDefense Jovem-Portugal. (2022, março 23). 3a Edição de Tertúlias: Os Desafios Éticos da Inteligência Artificial. https://www.youtube.com/watch?v=WYcN3fkb0c4
Ma, L., Zhang, Z., & Zhang, N. (2018). Ethical Dilemma of Artificial Intelligence and its Research Progress. IOP Conference Series: Materials Science and Engineering, 392(6), 062188. https://doi.org/10.1088/1757-899X/392/6/062188
Thompson, S. J. (Ed.). (2021). Machine Law, Ethics, and Morality in the Age of Artificial Intelligence: IGI Global. https://doi.org/10.4018/978-1-7998-4894-3
UNESCO. (sem data). Artificial Intelligence: Examples of ethical dilemmas. Obtido 15 de abril de 2022, de https://en.unesco.org/artificial-intelligence/ethics/cases
UNESCO. (2020, fevereiro 27). Recommendation on the ethics of artificial intelligence. UNESCO. https://en.unesco.org/artificial-intelligence/ethics
NOTA:
- As opiniões livremente expressas nas publicações da EuroDefense-Portugal vinculam apenas os seus autores, não podendo ser vistas como refletindo uma posição oficial do Centro de Estudos EuroDefense-Portugal.
- Os elementos de audiovisual são meramente ilustrativos, podendo não existir ligação direta com o texto.