NOTÍCIAS >

Coluna Paulus Social

Publicado em

28/01/2025

A urgência de uma algorética

Artigo da editoria Cidadania Digital, da 11ª edição da Revista Casa Comum, por Darlei Zanon*

Getting your Trinity Audio player ready...

Imagem criada no Canva, a partir de inteligência artificial (IA)

A inteligência artificial (IA) – juntamente com os algoritmos, que são o seu coração – é onipresente na nossa vida, escolhendo os anúncios que visualizamos e as ruas pelas quais trafegamos, selecionando o melhor candidato para uma entrevista de emprego, fazendo diagnósticos médicos, atendendo chamadas telefônicas, otimizando logística, avaliando nossa confiabilidade financeira em vista de empréstimos bancários, monitorando o crescimento das florestas, os movimentos dos oceanos, as migrações de pássaros, as chuvas e terremotos, ensinando novas línguas ou qualquer outro tema que nos interessar… Enfim, da cibersegurança à administração pública, a IA está presente em todos os setores do mundo contemporâneo.

Entretanto, é difícil apontar se essa tecnologia é boa ou má em si. Para fazer referência ao clássico de Umberto Eco, Apocalípticos e integrados, alguns dirão que ela representa o fim da humanidade e outros defenderão que é um passo para a evolução da espécie, rumo ao homo algoritmus. Como ferramenta, ou instrumento, portanto, seu impacto no mundo depende sobretudo do seu uso, projetação, programação e controle. Daí a necessidade de uma ética para a IA e para os algoritmos, surgindo assim a “algorética”.

Mas o que significa exatamente este neologismo: algorética? Trata-se da investigação dos problemas éticos ligados ao uso da inteligência artificial e, em particular, de ferramentas/instrumentos baseados em algoritmos. Ser humano e máquina nunca estiveram tão unidos, por isso é necessário refletir sobre o diálogo e a boa relação entre ambos. Se quisermos que as máquinas estejam a serviço da humanidade e do bem comum, sem jamais substituir os seres humanos, é necessário estabelecer parâmetros e valores éticos, e não apenas numéricos.

Alguns princípios podem ser importados da Filosofia, mas como estamos falando de algo completamente novo, de uma mudança de época, novos princípios e parâmetros devem ser criados. Esses critérios humanos e éticos devem servir como limitadores, como linhas guias, para ajudar a delimitar e orientar o avanço da IA, sobretudo nos campos político, médico, econômico e social.

Falamos em, ao menos, dois aspectos centrais em relação ao modo como desenvolver eticamente os algoritmos: uma ética das próprias máquinas (ligadas a engenheiros e programadores, que devem incluir princípios éticos no seu projeto, evitando limitações que vão contra algum valor, que prejudiquem alguém, que sejam discriminatórias ou que contrariem os direitos fundamentais – chama-se ethical by design); e a segunda dimensão é a de quem projeta (ou seja, estabelecer um código de ética bem rígido, incluindo transparência, boas práticas, punições, responsabilidade, etc. – chama-se ethical in design).

Algumas das grandes questões ligadas à algorética buscam estabelecer de quem é a responsabilidade, que regulamento seguir, quais valores e princípios morais devem guiar as decisões e quais decisões tomar. Uma grande preocupação hoje é não deixar processos decisórios delegados à IA, ao menos, não somente a ela. Deve haver sempre colaboração e responsabilização. É fundamental criar regras e normativas, leis e parâmetros éticos claros e objetivos. Fala-se hoje inclusive na necessidade de um “código de direito algorítmico”.

Os governos e instituições nacionais e internacionais já estão se mobilizando para estabelecer normativas e leis que acompanhem o desenvolvimento da IA. No Brasil vemos poucos passos dados nessa direção. No Plano Plurianual 2024-2027, a presidência reconheceu a discriminação algorítmica como uma questão a ser combatida na atuação do Executivo, mas concretamente vemos poucas iniciativas.

A Comissão Europeia, por exemplo, já no ano de 2019, estabeleceu sete elementos fundamentais para uma IA de confiança, divulgados através do documento Orientações éticas para uma IA de confiança. Segundo o documento, uma IA de confiança tem três dimensões que devem ser observadas ao longo de todo o ciclo de vida do sistema: a) deve ser legal, cumprindo toda a legislação e regulamentação aplicáveis; b) deve ser ética, garantindo a observância de princípios e valores éticos; c) deve ser sólida, tanto do ponto de vista técnico como do ponto de vista social, uma vez que, mesmo com boas intenções, os sistemas de IA podem causar danos não intencionais. Cada uma dessas dimensões é necessária, mas não suficiente, para alcançar uma IA de confiança.

Outra iniciativa fundamental nesse campo é o Rome Call for AI Ethics (Apelo de Roma para uma ética da IA), acordo assinado pela primeira vez em 28 de fevereiro de 2020, em Roma, para promover uma abordagem ética da inteligência artificial. O documento apresenta uma estrutura bastante simples, focada em três áreas de impacto (ética, educação e direito) e seis princípios éticos fundamentais (transparência, inclusão, responsabilidade, imparcialidade, confiabilidade e segurança/privacidade). A ideia de fundo do Apelo é promover um senso de responsabilidade compartilhada entre organizações internacionais, governos, instituições e empresas de tecnologia, em um esforço para criar um futuro em que a inovação digital e o progresso tecnológico devolvam ao ser humano sua centralidade.

Apontando para uma futura algorética, os signatários se comprometeram em desenvolver uma IA que sirva a cada pessoa e à humanidade como um todo; que respeite a dignidade da pessoa humana, para que cada indivíduo possa se beneficiar dos avanços da tecnologia; e que não tenha como único objetivo maior lucro ou substituição gradativa de pessoas no local de trabalho. Promovido pela Pontifícia Academia para a Vida e pela Fundação RenAIssance, criada pelo Papa Francisco em 2021, o Apelo foi inicialmente assinado pelo Vaticano, Microsoft, IBM, FAO e Ministério Italiano para a Inovação. Posteriormente diversas outras instituições, universidades e empresas também se juntaram ao projeto, como a americana Cisco, que o assinou em abril deste ano.

Ao falar de algorética, emergem muito mais perguntas do que respostas. São inúmeras as inquietações, dúvidas, possibilidades. Uma coisa, no entanto, é consensual: trata-se de um problema ético e filosófico antes de ser tecnológico. É preciso assegurar que o avanço tecnológico ocorra de forma ética e responsável, evitando qualquer tipo de desrespeito, exclusão ou discriminação. É urgente estabelecer uma linguagem que traduza o valor moral em algo claro e computável para a máquina, ou seja, em valor/ código numérico.

Falar de algorética significa compreender que os algoritmos estão cada vez mais tomando decisões pelo ser humano, sobre o ser humano e com o ser humano. Isso deve nos ajudar a superar uma concepção meramente instrumental da tecnologia e colaborar na elaboração de regulamentações e políticas que promovam um uso ético dos algoritmos e da IA. O ponto de partida para desenvolver uma nova gramática digital e uma nova linguagem que culminará na algorética é colocar o ser humano no centro (human-centered design) garantindo sempre sua dignidade e seus direitos fundamentais.

*Darlei Zanon é jornalista, bacharel em Filosofia e mestre em Comunicação, Cultura e Tecnologias da Informação pelo Instituto Universitário de Lisboa (ISCTE). Tem ampla experiência no campo editorial, como autor e editor, desenvolvendo atividades no Brasil, em Portugal e na Itália.

Fique por dentro

• Orientações éticas para uma IA de confiança: bit.ly/RCC_11_57

• Apelo de Roma para uma ética da IA: romecall.org

• PAULUSCAST 71 – Algorética: reflexões e dilemas ligados à inteligência artificial: bit.ly/RCC_11_58

Outros conteúdos:

Comunicar para defender direitos

Nova série em formato de podcast é uma iniciativa da Revista Casa Comum elaborada a partir de entrevistas da 11ª edição, que pautou a “Comunicação transformadora pelo bem comum”.

Publicado em

28/01/2025

Direito à comunicação é peça fundamental para o fortalecimento da democracia

Apesar do Brasil possuir altos índices de conectividade à internet, especialistas afirmam que o direito à comunicação vai além de um aparelho eletrônico em mãos. Com tanta conexão, a desinformação surge como risco. Nesse contexto, educação midiática e projetos de lei tentam mudar o cenário.

Publicado em

29/01/2025

“Dizer que regulação de plataformas significa limitação da liberdade de expressão é um equívoco absoluto”, destaca Nina Santos

Pesquisadora da Universidade Federal da Bahia (UFBA) e da Université Paris II, Nina Santos aborda regulamentação das plataformas digitais, impacto na democracia, combate à desinformação e promoção da informação de qualidade, inteligência artificial e algoritmos racistas.

Publicado em

28/01/2025

Inscreva-se


Botão do whatsapp

Entre para nossa comunidade!