Santa Sé: IA é uma oportunidade, mas o homem pode se tornar escravo das máquinas

0
119

A Inteligência Artificial não deve ser considerada como uma pessoa, não deve ser divinizada, nem substituir as relações humanas. Deve ser utilizada “apenas como um instrumento complementar à inteligência humana”. Os alertas do Papa sobre a Inteligência Artificial nos últimos anos servem de guia para a Antiqua et Nova (em referência à “sabedoria”, antiga e nova), a nota sobre a relação entre inteligência artificial e inteligência humana, fruto da reflexão mútua entre o Dicastério para a Doutrina da Fé e o Dicastério para a Cultura e a Educação. O documento é dirigido a pais, professores, sacerdotes, bispos e a todos os que são chamados a educar e transmitir a fé, mas também àqueles que compartilham a necessidade de um desenvolvimento científico e tecnológico “a serviço da pessoa e do bem comum” [5]. Publicado hoje, 28 de janeiro, o texto foi aprovado pelo Papa Francisco.

Em 117 parágrafos, a Antiqua et Nova destaca os desafios e as oportunidades do desenvolvimento da Inteligência Artificial (IA) nos campos da educação, economia, trabalho, saúde, relações internacionais e interpessoais, além de contextos de guerra. Neste último, por exemplo, as potencialidades da IA – adverte a Nota – poderiam aumentar os recursos bélicos “muito além do alcance do controle humano”, acelerando “uma corrida desestabilizadora por armamentos com consequências devastadoras para os direitos humanos” [99].

Perigos e progressos

Mais detalhadamente, o documento enumera com equilíbrio ponderado os perigos da IA, mas também os progressos, que, aliás, incentiva como “parte da colaboração” do homem com Deus “para levar à perfeição a criação visível” [2]. A preocupação, no entanto, é grande e decorre de todas as inovações cujos efeitos ainda são imprevisíveis, inclusive naquilo que, no momento, parece inofensivo, como a geração de textos e imagens.

Distinguir entre IA e inteligência humana

Portanto, são considerações éticas e antropológicas que estão no centro da reflexão dos dois Dicastérios, que dedicam vários parágrafos da Nota à distinção “decisiva” entre Inteligência Artificial e inteligência humana. Esta última “se exerce nas relações” [18], é modelada por Deus e “é moldada por uma miríade de experiências vividas na corporeidade”. A IA “não possui a capacidade de evoluir nesse sentido” [31]. A visão que ela oferece é “funcionalista”, avaliando as pessoas apenas com base em trabalhos e resultados, enquanto a dignidade humana é imprescindível e permanece sempre intacta. Mesmo em “uma criança ainda não nascida”, em “uma pessoa em estado não consciente” ou em “um idoso em sofrimento” [34]. É, portanto, “enganoso” usar a própria palavra “inteligência” em referência à IA: ela não é “uma forma artificial de inteligência”, mas “um dos seus produtos” [35].

Poder nas mãos de poucos

E, como todo produto do engenho humano, também a IA pode ser direcionada para “fins positivos ou negativos”, destaca a Antiqua et Nova. Não se nega que a Inteligência Artificial possa introduzir “inovações importantes” em diversos campos [48], mas há o risco de agravar situações de marginalização, discriminação, pobreza, “divisão digital” e desigualdades sociais [52]. O que levanta “preocupações éticas” em especial é o fato de que “a maior parte do poder sobre as principais aplicações da IA esteja concentrada nas mãos de poucas empresas poderosas” [53], permitindo que essa tecnologia seja manipulada para “lucros pessoais ou corporativos” ou para “orientar a opinião pública em favor dos interesses de um setor” [53].

Guerra

A Nota examina, em seguida, os vários aspectos da vida em relação à IA. Inevitável é a referência à guerra. As “capacidades analíticas” da IA poderiam ser utilizadas para ajudar as nações a buscar paz e segurança, mas um “grave motivo de preocupação ética” são os sistemas de armas autônomas e letais, capazes de “identificar e atingir alvos sem intervenção humana direta” [100]. O Papa pediu com urgência o banimento de seu uso, como afirmou no G7 na Puglia: “Nenhuma máquina jamais deveria decidir tirar a vida de um ser humano”. Máquinas capazes de matar com precisão de forma autônoma e outras aptas à destruição em massa representam uma verdadeira ameaça para “a sobrevivência da humanidade ou de regiões inteiras” [101]. Essas tecnologias “conferem à guerra um poder destrutivo incontrolável, atingindo muitos civis inocentes, sem poupar sequer as crianças”, denuncia a Antiqua et Nova. Para evitar que a humanidade caia em “espirais de autodestruição”, é indispensável “adotar uma posição firme contra todas as aplicações da tecnologia que ameaçam intrinsecamente a vida e a dignidade da pessoa humana”.

Relações humanas

Sobre as relações humanas, o documento observa que a IA pode, sim, “favorecer as conexões”, mas, ao mesmo tempo, levar a “um isolamento prejudicial” [58]. A “antropomorfização da IA” também apresenta problemas específicos para o desenvolvimento das crianças, incentivadas a entender “as relações humanas de maneira utilitarista”, como ocorre com os chatbots [60]. É “errado” representar a IA como uma pessoa, e é “uma grave violação ética” utilizá-la para fins fraudulentos. Da mesma forma, “usar a IA para enganar em outros contextos – como na educação ou nas relações humanas, incluindo a esfera da sexualidade – é profundamente imoral e exige vigilância rigorosa” [62].

Economia e trabalho

Essa mesma vigilância é exigida no campo econômico-financeiro. Em particular, no âmbito do trabalho, destaca-se que, se por um lado a IA tem “potencial” para aumentar competências e produtividade ou criar novos empregos, por outro, pode “desqualificar os trabalhadores, submetê-los a uma vigilância automatizada e relegá-los a funções rígidas e repetitivas” [67], a ponto de “sufocar” toda capacidade inovadora. “Não se deve buscar substituir cada vez mais o trabalho humano pelo progresso tecnológico: ao fazê-lo, a humanidade prejudicaria a si mesma”, ressalta a Nota [70].

Saúde

Amplo espaço é dedicado ao tema da saúde. Embora a IA possua um enorme potencial em diversas aplicações no campo médico (como o auxílio em diagnósticos), caso venha a substituir a relação médico-paciente, deixando a interação apenas para as máquinas, corre o risco de “agravar aquela solidão que frequentemente acompanha a doença”. Além disso, a otimização dos recursos não deve “prejudicar os mais vulneráveis” ou criar “formas de preconceito e discriminação” [75], que reforcem uma “medicina para os ricos”, em que pessoas com recursos financeiros usufruem de ferramentas avançadas de prevenção e informações médicas personalizadas, enquanto outros lutam para ter acesso até mesmo aos serviços básicos.

Educação

Riscos também são destacados no campo da educação. Se utilizada de forma prudente, a IA pode melhorar o acesso à educação e oferecer “respostas imediatas” aos estudantes [80]. O problema é que muitos programas “se limitam a fornecer respostas em vez de incentivar os estudantes a buscá-las por conta própria ou a escreverem seus próprios textos”; isso leva à perda do hábito de acumular informações ou desenvolver um pensamento crítico [82]. Sem esquecer a quantidade de “informações distorcidas ou artificiais” ou “conteúdos imprecisos” que alguns programas podem gerar, legitimando, assim, as fake news [84].

Fake News e Deepfake

Com relação às fake news, o documento destaca o sério risco de a IA “gerar conteúdos manipulados e informações falsas” [85], alimentando uma “alucinação” de IA, com conteúdos não verídicos que aparentam ser reais. Ainda mais preocupante é quando tais conteúdos fictícios são usados intencionalmente para fins de manipulação. Por exemplo, quando imagens, vídeos e áudios deepfake (representações alteradas ou geradas por algoritmos) são divulgados intencionalmente para “enganar ou prejudicar” [87]. O apelo, portanto, é para que se tenha sempre o cuidado de “verificar a veracidade” do que é divulgado e para evitar, em qualquer circunstância, “a disseminação de palavras e imagens degradantes para o ser humano”, excluindo “o que alimenta o ódio e a intolerância, desvaloriza a beleza e a intimidade da sexualidade humana e explora os fracos e indefesos” [89].

Privacidade e controle

Sobre privacidade e controle, a Nota evidencia que alguns tipos de dados podem chegar a tocar a intimidade da pessoa, “talvez até mesmo sua consciência” [90]. Atualmente, os dados são adquiridos com uma quantidade mínima de informações, e o perigo é transformar tudo “em uma espécie de espetáculo que pode ser espionado, vigiado” [92]. Além disso, “a vigilância digital pode ser utilizada para exercer controle sobre a vida dos fiéis e sobre a expressão de sua fé” [90].

Casa Comum

No que diz respeito à Criação, as aplicações da IA são consideradas “promissoras” para melhorar a relação com a casa comum. Basta pensar nos modelos para a previsão de eventos climáticos extremos, na gestão de operações de socorro ou no suporte à agricultura sustentável [95]. Ao mesmo tempo, os modelos atuais de IA e os sistemas de hardware que os sustentam requerem “enormes quantidades de energia e água e contribuem de forma significativa para as emissões de CO₂, além de consumir recursos de forma intensiva”. É, portanto, um tributo “pesado” que se exige do meio ambiente: “O desenvolvimento de soluções sustentáveis é vital para reduzir seu impacto sobre a casa comum”.

O relacionamento com Deus

“A presunção de substituir Deus por uma obra de suas próprias mãos é idolatria”: a Nota cita as Sagradas Escrituras para alertar que a IA pode se revelar “mais sedutora do que os ídolos tradicionais” [105]. Lembra, portanto, que ela não é nada mais do que “um pálido reflexo” da humanidade: “Não é a IA que será divinizada e adorada, mas sim o ser humano, que, dessa forma, torna-se escravo de sua própria criação”. Daqui deriva uma recomendação final: “A IA deve ser utilizada apenas como um instrumento complementar à inteligência humana e não para substituir sua riqueza” [112].

Fonte: Vatican News

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui