
Foco deve ser em problemas ambientais, não nos riscos que a IA pode causar, destaca líder da IBM
Banrisul apresenta:
Com objetivo de debater responsabilidade social corporativa e a ética na tecnologia, o Instituto Caldeira recebeu Flávia Freitas, líder de responsabilidade social para a América Latina da IBM. O painel foi ministrado por Marta Saft Valli, vice-presidente sênior de engenharia para a América Latina da Thoughtworks, e tratou sobre a necessidade de ação individual e empresarial para resolver problemas globais.
Um dos pontos de destaque do painel foi o papel da IBM em tornar soluções avançadas de inteligência artificial (IA) mais acessíveis. Segundo Flávia, os dados do Relatório de Risco do Fórum Econômico Mundial (World Economic Forum), são alarmantes e servem para contextualizar a urgência do foco em sustentabilidade. Ela destaca que, na projeção de riscos para os próximos 10 anos do relatório, os quatro primeiros riscos globais estão ligados diretamente ao meio ambiente e muitas vezes acabamos esquecendo disso.
A gente está tão assustado com o que a inteligência artificial vai causar e acaba esquecendo que para inteligência artificial causar algum impacto negativo precisa existir mundo. E a gente está deixando isso um pouco para trás.
Assim, ela descreveu o programa IBM Impact Accelerator, um programa global e pró-bono da IBM, destinado a resolver problemas de sustentabilidade e auxiliar pessoas que vivem em situação de vulnerabilidade climática. O programa busca ativamente garantir que as soluções avançadas que utilizam IA se tornem acessíveis e escaláveis para comunidades vulneráveis, prevenindo a criação de uma nova divisão digital.
Para alcançar essa inclusão, a estratégia é envolver a comunidade desde o princípio na definição e na interação com a tecnologia. Segundo ela, isso faz com que a solução aborde as reais necessidades sentidas pela comunidade, evitando que o acesso à tecnologia seja superficial.

“A maneira que a gente encontrou para que o programa fosse de fato inclusivo foi envolvendo a comunidade desde o princípio na definição e no apoio à definição da solução. Não adianta fazer um programa bonito dentro do escritório, na tela. Tem que ir até a comunidade que você quer servir e ver se faz sentido”, ponderou Flávia.
Outro ponto debatido foram os Objetivos de Desenvolvimento Sustentável (ODSs), um conjunto de 17 objetivos globais, adotados pela Organização das Nações Unidas (ONU) em 2015, que formam um plano de ação para erradicar a pobreza, proteger o planeta e garantir que todas as pessoas desfrutem de paz e prosperidade até 2030.
Segundo a líder da IBM, o avanço desses objetivos está muito lento, com apenas 17% dos objetivos de fato alcançados, com aproximadamente 18% tendo apenas uma mínima evolução, e todo o resto estando estagnado ou até mesmo em retrocesso.
“Convido vocês a procurarem entender o relatório atual de progressão dos ODSs. Não vai ser uma surpresa doce, mas é importante para que a gente crie consciência”, destacou.
Ética na Inteligência Artificial
Apesar de entender que é uma tecnologia benéfica, Flávia afirma que a IBM tem uma forte preocupação com a ética da Inteligência Artificial. Segundo ela, a empresa regula a produção e os lançamentos no mercado por meio de um comitê de ética interno, e participa de grandes fóruns de regulação.
Um exemplo disso foi a decisão de descontinuar a tecnologia de reconhecimento facial. Essa medida drástica foi tomada devido a falhas no sistema que estavam, por exemplo, associando certas palavras a estereótipos preconceituosos e desumanizantes, indicando o quão importante e delicado é o tema da ética em relação à nova tecnologia.
“Quando você colocava a palavra nurse (enfermeira) no Google, era só mulher, não apareciam homens enfermeiros. Quando você colocava a palavra macaco, sim, vinham os macacos, mas vinham também pessoas negras. Por isso descontinuamos, A IBM tem uma preocupação muito forte com a ética”, explicou.
Por fim, Flávia foi questionada sobre a importância da tomada de riscos na inovação social. A representante da IBM respondeu que os riscos, desde que controlados, são essenciais para que a capacidade de criação não seja limitada.
Tenho bastante liberdade para errar. É muito bom, pois aí não a capacidade de criação não fica limitada. Tenho liberdade para testar, óbvio que é um erro controlado. Não é com muito dinheiro”, destacou, com bom humor.