Último dia do evento mostrou exemplos do uso da tecnologia e trouxe alertas ao público
O último dia do Fórum RNP levou ao público um painel de especialistas para falar sobre benefícios e riscos das Inteligências Artificiais (IAs) generativas na área de Tecnologia da Informação e Comunicação (TIC). Fernanda Cruz, diretora-adjunta de TI da RNP e mediadora do painel, afirmou que até 2025 a previsão de investimentos em IAs será em torno de US$ 200 bilhões. “Esse volume já mostra a importância do tema.”
IAs generativas são capazes de criar, a partir de um banco de dados, textos, imagens e outros conteúdos semelhantes aos gerados por um humano. A desenvolvedora da RNP focada em soluções de IA, Amanda Pereira, disse que a IA não deve tirar postos de trabalho, “mas deixar de onerar o analista com coisas triviais que a IA pode fazer.” Ela vê melhora na experiência do cliente no Ipezinho, rede de atendimento via chat da RNP. “IA generativa ajudou a deixar a conversa mais dinâmica e natural e o atendimento mais consistente.”
Tresso Medeiros, gerente de TI do centro de inovação CESAR, tem uma equipe fazendo experimentos para entender como uma IA generativa pode aumentar a produtividade no contexto de engenharia de software, educação e design. O consultor de Tecnologia do CESAR, Fábio Wladimir Maia, alertou para o risco de fraudes usando IA. “Agora pode haver redes de bots fazendo engenharia social. Pessoas são enganadas no WhatsApp por gente dizendo ser filho ou pai. Hoje uma pessoa faz isso; em breve, teremos chatbots nessa função.”
Ética na IA
A professora de Direito Digital no IDP Brasília Bianca Kremer afirmou que “o processo de produção de tecnologia muitas vezes, independente de ser intencional ou não, reproduz vieses raciais, sociais e impactos relevantes para nossa maneira de ser, estar e viver em sociedade”. Ela deu exemplos de casos reais no painel sobre o uso ético das IAs, mediado por Tatiana Pontes, analista acadêmica da Escola Superior de Redes (ESR).
Pesquisadora da UFF especializada em IA, Mariza Ferro citou o caso de uma mulher representada em um aplicativo com ilustrações sensuais e poucas roupas. Já os colegas homens eram representados como astronautas ou super-heróis. Ela apontou que muitas vezes o problema está no treinamento desta tecnologia.
“Esse debate tem permitido que consigamos olhar para os nossos vieses enquanto seres humanos. Perceber como nós, como sociedade, deixamos de observar regras de representatividade, de falta de diversidade. A IA é um grande modelo matemático que não tem consciência de escolha. Então o viés vem de onde? Dos dados.”
Bianca Kremer mostrou preocupação com IAs usadas para reconhecimento facial. “Nesse tipo de tecnologia já temos exemplos de enviesamento de aspecto racista. Um deles é do tiktoker Benjamin, que tentou fazer uma autenticação pelo celular para acessar um serviço bancário privado e não conseguiu porque a tecnologia não reconhecia a pele de pessoas negras retintas”, contou.
Para Mariza, é preciso agir o quanto antes para mudar o cenário. “Podemos atuar como sociedade, como desenvolvedores. Não é mais o momento de dizer que a base tinha viés ou não tinha representatividade. É tempo de ação.”