IA em tudo: o que de fato é inteligência artificial, quais são seus perigos e como lidar com esse avanço?

ROTANEWS176 15/10/2024 15:44                                                                                                                                  Por João Paes

Desde a popularização de chatbots como ChatGPT e avanços na área de edição de texto, criação de imagens e até vídeo, o tópico inteligência artificial tem ganhado cada vez mais espaço no nosso cotidiano. Praticamente todas as apresentações de tecnologia ou de games citam o termo IA para reforçar o avanço de alguma tecnologia. Seja no processamento de imagens em uma câmera, no upscalling de um novo console ou até mesmo para falar de funcionalidades que já pareciam corriqueiras, mas que agora também ganham o selo “IA”.

Sendo IA ou não, diversos setores já sentem o impacto dessas novas ferramentas – principalmente os de entretenimento, como as recentes greves deixam claro. Mas só esses setores podem ser impactados diretamente? Existem perigos reais de um mundo “dominado” por inteligências artificiais? É certo que precisamos de regulamentação e uma legislação específica para que esse conjunto de ferramentas siga regras. Mas quais são essas regras e por que elas precisam existir?

Reprodução/Foto-RN176 IA em tudo: o que de fato é inteligência artificial, quais são seus perigos e como lidar com esse avanço?

Para entender mais sobre todos esses pontos, falamos com Pedro Burgos, jornalista e fundador da Co.Inteligência, empresa focada em treinamento, consultoria e desenvolvimento de aplicações com uso de inteligência artificial, e também com Samir Salim, jornalista responsável pela Interfaces, uma das maiores newsletters de tecnologia do Brasil e que praticamente toda semana tem algo a falar sobre IA.

O que é IA?

O Google diz que IA é “um conjunto de tecnologias que permitem aos computadores executar uma variedade de funções avançadas, incluindo a capacidade de ver, entender e traduzir idiomas falados e escritos, analisar dados, fazer recomendações e muito mais”. Porém, tecnologias como Google Tradutor, upscaling de imagens e diversas existem há um tempo e ninguém nunca os anunciava como inteligências artificiais.

Outro local no qual a IA começou a aparecer com onipresença é o celular. É importante deixar claro que, por mais que diversas fabricantes queiram colocar tudo no mesmo balaio, nem tudo é IA. Machine Learning e Deep Learning são termos que acabaram sendo substituídos por inteligência artificial, mas não são a mesma coisa. Os maiores exemplos são os celulares e suas funções: processamento de imagens, chips cada vez mais rápidos, software trabalhando para poupar bateria, assistentes virtuais, modos de fotografia em diferentes condições de iluminação e até a soma de pixels para criar uma foto mais nítida não são nenhuma novidade, mas agora tudo isso ganhou o selo “feito por IA” para parecer algo mais futurista.

Para Burgos, “Inteligência Artificial é um termo bastante amplo, e não há uma definição super estrita. A IA abrange muitas técnicas, como machine learning, deep learning e redes neurais. Os algoritmos de machine learning e deep learning já têm sido usados há vários anos para melhorar o processamento de imagem no iPhone ou Samsung Galaxy, desbloquear o celular com o rosto, taguear pessoas em fotos, etc. Tudo isso pode ser caracterizado como IA — são repercussões de técnicas que deram o Nobel de Física recentemente, por exemplo. O reconhecimento de texto em imagem (OCR) é uma forma rudimentar de IA, mas até outro dia desses só falávamos de aprendizado de máquina”.

“Até outro dia desses só falávamos de aprendizado de máquina.

Samir Salim também relembra de tecnologias que passaram a ser chamadas de IA, mas que antes eram conhecidas por outros nomes: “Câmeras de celulares sempre aprimoraram via algoritmos a qualidade da imagem – a Nokia já fazia isso em 2011, 2012 nos Lumia. Mas parece para a maioria das marcas que é só um extra para dar uma nova roupagem a algo antigo. Tem as novidades, claro – o “circular para buscar” ou apagar/modificar objetos em fotos, que é bem legal. Mas nem tudo é IA mesmo. Não fica restrito a PCs e celulares: vemos impressoras, relógios inteligentes, câmeras digitais ‘movidas’ por IA”, continuou Salim. “Na prática, a IA acaba tendo grande utilidade no mundo corporativo – analisando dados e ajudando o homem a ver o que não consegue. Medicina é outra aplicação incrível, lendo milhares de tomografias para aprender o padrão de um câncer de pulmão, por exemplo. São coisas mais úteis do que apenas uma impressora com IA”.

Burgos concorda que o termo vem sendo adotado como algo de marketing: “Então, em muitos casos, as empresas estão, de fato, usando o termo IA para aproveitar a tendência e fazer o marketing para a tecnologia parecer mais avançada e inovadora do que ela realmente é. O autocorretor em muitos celulares hoje não usam aprendizado profundo (deep learning). Mas quando chamamos de IA, a ideia de automação inteligente fica mais atraente. Especialmente agora que todo mundo está com IA na cabeça por causa do ChatGPT e afins”.

Quais os maiores perigos da IA?

Sim, a ficção científica já nos mostrou diversos futuros horríveis com IA. Mas além disso, quais são os perigos reais de um mundo dominado por chatbots, geradores de imagens e vídeo?

“O maior perigo é quando você, certa manhã, despertar de sonhos intranquilos, encontrar-se em sua cama metamorfoseado num chatbot horroroso”, brinca Salim. “O perigo é a perda de controle de seus dados, a pasteurização do conteúdo e o empobrecimento dele. Indo além da geração da imagem e vídeo, já estamos em um cenário real do empobrecimento do texto, tanto na produção quanto na leitura. Tudo podendo ser resumido a tópicos e passando por um filtro de leitura do ChatGPT, criado sob medida por empresas de conteúdo. A troca da literatura por frases rasas, a precarização da relação humana entre humanos e entre nós e a arte, o estudo…”

“Raramente vemos os impactos de uma revolução enquanto ela acontece.

Burgos também se preocupa mais com um cenário de empobrecimento cultural do que com o apocalipse feito por máquinas e lembra de Idiocracy, filme de 2006 dirigido por Mike Judge. Para o jornalista, o cenário do filme do criador de Beavis & Butthead seria mais provável de acontecer do que qualquer coisa como O Exterminador do Futuro. “O filme retrata um futuro em que a sociedade se torna cada vez mais ignorante e dependente de tecnologias simples, o que me parece um risco real se nos acostumarmos a usar a IA como muleta sempre, ao invés de aprender como as coisas funcionam”.

“Outra ameaça, não para o futuro, mas para o presente próximo, é sermos inundados por conteúdo sintético”, alerta Burgos. “Não falo nem de ‘desinformação’ gerada por IA apenas, mas o excesso de posts no LinkedIn escritos com ChatGPT ou imagens geradas no Midjourney vão inundando as redes, dificultando o já difícil trabalho dos mecanismos de busca e algoritmos de recomendação. É possível que vejamos golpes mais sofisticados, sim, e a pornografia com deepfakes de meninas e mulheres que não podem se defender (famosas ou não) é real. Mas em médio/longo prazo o problema maior me parece ser a dificuldade de reconhecer o que é real. Então, os perigos reais de um mundo dominado por IA não estão apenas em cenários catastróficos de ficção científica, mas também nos impactos sutis e cumulativos no nosso dia a dia. Raramente vemos os impactos de uma revolução enquanto ela acontece”, completa.

Além disso, outro risco para a sociedade está no mercado de trabalho e a greve de Hollywood do ano passado deixou claro que a IA pode se tornar um problema em diversas áreas. Mas também mostrou que é possível coexistir e as regras dos sindicatos deixaram essa possibilidade aberta, ainda que com muitos poréns. A indústria dos games também olha o uso de IA com atenção e o sindicato pensa em uma greve para discutir o assunto.

“Já temos veículos que estão trocando a redação por programas de IA para redigir notas.

Burgos vê pioneirismo nas propostas dos sindicatos de Hollywood e analisa que essa não será a única indústria a ter regulamentação profunda sobre IA: “Imagino que isso seja apenas o começo, porque várias outras indústrias se organizarão também. A questão é que muitas carreiras — talvez a maioria — não têm capacidade de se organizar como alguns dos criativos. Então serão necessárias algumas mudanças na legislação, provavelmente, para ajudar essa transição econômica”.

“Muitas áreas podem ser afetadas, mas hoje consigo olhar para a comunicação como um todo. Já temos veículos que estão trocando a redação por programas de IA para redigir notas”, analisa Salim que também comenta sobre o uso de IA para criar comunicados de imprensa e até mesmo escrever petições em escritórios de advocacia.

“Profissionais de atendimento ao consumidor — setor que emprega mais de 2 milhões de pessoas no Brasil em call-centers e nas empresas — estão rapidamente sendo substituídos por chatbots, adiciona Burgos. “Profissionais de tradução ou dublagem já foram severamente afetados. São exemplos de uma vaga sendo ocupada totalmente por algo feito por IA”.

Mas edição de textos, imagens e vídeos acaba não sendo algo que afetaria apenas o mercado de cinema e de produção de conteúdo. O avanço da IA anda de mãos dadas com a desinformação. Por mais que grandes geradores de imagens e vídeos tenham travas para não deixar pessoas reais aparecerem nas montagens, eles não são os únicos. Grok, de Elon Musk, é uma IA generativa que não possui qualquer restrição para suas imagens criadas e isso dá margem para qualquer tipo de maluquice (e crimes) envolvendo marcas registradas e, pior, pessoas reais.

“Se proteger totalmente é impossível – não só de IA, mas de qualquer grande problema de precarização do trabalho, mas é possível entender as mudanças, descobrir em que área ainda há espaço para a expertise humana”, diz Salim. “E também a adaptação. Em um mundo em que empregadores querem IA para substituir a mão de obra humana, é melhor ser o cara que sabe operar a IA, dar os prompts de maneira correta, tê-la como sua ferramenta. É cruel, mas é uma alternativa. Se especializar muito no que faz e ser único ou se especializar na ferramenta que vai tirá-lo do jogo. É um pouco do que aconteceu com o jornalismo. Quem não foi para algum nicho, criou um nome, para poder ter uma certa blindagem, se dobrou ao SEO, ao clickbait, às redes sociais dos influencers e ‘criadores de conteúdo'”, completou.

“Se proteger totalmente é impossível – não só de IA, mas de qualquer grande problema de precarização do trabalho, mas é possível entender as mudanças, descobrir em que área ainda há espaço para a expertise humana.

Para Burgos, a proteção também não é algo fácil e também não só para a questão financeira. “A proteção contra os impactos da IA não se trata apenas de sobrevivência econômica, mas também de preservar nossa humanidade. As habilidades que nos tornam únicos — empatia, intuição, capacidade de criar conexões significativas — são aquelas que a IA ainda não consegue replicar. Então a saída não é necessariamente treinar todo mundo no uso de IA, mas dar mais valor (monetário e em termos de status social) a carreiras que usam as habilidades humanas. Além das artísticas, coisas como cuidador de idoso, guia turístico etc”.

Samir alerta que “há dois grandes perigos e a confiança dá margem aos dois pontos: a confiança nos resultados e trabalhos apresentados por IA sem uma validação humana mínima. Vemos isso nas barbaridades que o Gemini, do Google, nos apresenta nas respostas dadas na ferramenta de buscas. Se alguém confia naquilo, eventualmente se dará mal. O outro perigo é confiar no “raciocínio” trazido pela inteligência artificial e ser manipulado por ela — o que pode ocorrer de maneira intencional, havendo um viés na programação. Lembra muito o que acontece no racismo algorítmico, quando produtos são criados por pessoas brancas para pessoas brancas, ignorando necessidades ou a mera existência de peles pretas – o que é pior quando reconhecimento facial de suspeitos leva a prisão de pessoas erradas pois as ferramentas não foram criadas para reconhecer diferentes feições e cores do que as brancas”.

Por fim, Burgos acha que a regulamentação é importante, mas deve ser acompanhada de educação para os usuários. “A regulação pode tentar minimizar esse risco, como recentes leis que exigem uma espécie de “marca d’água” em imagens criadas por IA. Ou a co-responsabilização de plataformas em casos mais extremos, que exigirão mecanismos de moderação mais sofisticados. Mas precisamos mexer também no lado da demanda. As pessoas precisam ser melhor educadas para reconhecer ou desconfiar de um conteúdo falso”.

Como o governo deve lidar com a IA?

Como ficou claro, a IA sem controle pode oferecer diversos perigos à sociedade. É preciso então que haja regras para seu uso e é preciso que legislações deixem claro como e o que pode ser feito por uma inteligência artificial. Os sindicatos de Hollywood criaram boas regras, mas apenas para os seus fins. Como podemos criar regras gerais?

No Brasil há o Projeto de Lei n° 2338, de 2023, de autoria de Rodrigo Pacheco (PSD), senador por MG. O texto se divide em nove capítulos e diversos artigos e é bem grande, como algo complexo assim tem que ser. Em sua justificativa há o seguinte parágrafo:

“O projeto tem um duplo objetivo. De um lado, estabelece direitos para proteção do elo mais vulnerável em questão, a pessoa natural que já é diariamente impactada por sistemas de inteligência artificial, desde a recomendação de conteúdo e direcionamento de publicidade na Internet até a sua análise de legibilidade para tomada de crédito e para determinadas políticas públicas. De outro lado, ao dispor de ferramentas de governança e de um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da sua interpretação e, em última análise, segurança jurídica para inovação e o desenvolvimento tecnológico”.

Sobre o Projeto de Lei, Salim e Burgos concordam em desconfiar: “Sempre olho com desconfiança e certo desalento a tramitação de projetos de lei no Congresso. Até a redação final para votação em plenário muita coisa é inserida, retirada, projetos são apensados (colocados juntos), muito “jabuti” (artigos que pouco tem a ver com a intenção original do projeto) entra para agradar alas de parlamentares e interesses pontuais. Isso sem contar lobby e precariedade técnica de parte dos interessados e envolvidos quando falamos de tecnologia e legislação”, disse Samir.

“De maneira geral, sem entrar em partes específicas do texto, acho que o projeto é muito vago, para o bem e para o mal. Ao não ser específico, pode fazer com que inovações benignas sejam desencorajadas”, destaca Burgos. “E ao falar da ‘centralidade da pessoa humana’ ou ‘respeito aos valores democráticos’ ele não deixa muito claro o que exatamente está tentando evitar. O conceito de IA de ‘alto risco’, e a supervisão do governo a iniciativas que utilizem essa tecnologia de ponta, pode frear o desenvolvimento do Brasil na área, que já está para trás. Enfim, no geral sou crítico à proposta, mas reconheço que nenhum país conseguiu até agora elaborar algo que seja equilibrado. A lei europeia, que modelamos um grande pedaço da nossa, é bastante restritiva — tanto que uma série de produtos que estão disponíveis para nós aqui não estão lá porque a lei não permite (do modo de voz avançado do ChatGPT ao novo Apple Intelligence)”.

Atualmente o projeto do legislativo (que já recebeu diversas emendas) está com o relator Senador Eduardo Gomes (PL-Tocantins). Em outro poder, o executivo, a IA também ganhou destaque no projeto Plano Brasileiro de Inteligência Artificial, o PBIA. Neste plano há previsão de mais de R$ 20 bilhões em investimentos federais em quatro anos para não só desenvolver, mas também aplicar IA em serviços públicos.

O investimento é alto – nem mesmo países como Reino Unido ou Alemanha investem tanto assim na área – e prevê cinco eixos principais: infraestrutura e desenvolvimento de IA; difusão, formação e capacitação; melhoria dos serviços públicos; inovação empresarial; apoio ao processo regulatório e de governança de IA. Ou seja, o projeto quer que o Brasil tenha seus próprios chips e profissionais da área, mas também quer que outros profissionais tenham acesso a ferramentas que melhorem processos em diferentes setores, até mesmo melhorando processos do SUS, por exemplo, e em empresas privadas nacionais.

Burgos vê com bons olhos, mas acha que o Plano precisa ter foco em aplicações para que funcione: “Acho que há um gigantesco potencial do uso de IA em sistemas públicos. Eu pessoalmente estou trabalhando em um projeto com um ministério que simplificará muito o treinamento de novos gestores com IA. A promessa é que a IA permita não apenas automatizar tarefas repetitivas — liberando recursos humanos para funções mais complexas —, mas proporcionar atendimento mais rápido e personalizado. Um chatbot inteligente pode dar respostas diferentes dependendo do nível educacional ou necessidades de acessibilidade, o que pode em última instância salvar vidas. Para que o PBIA seja bem-sucedido, eu gostaria de menos ênfase na questão de ‘soberania’, de treinamento de modelos em solo nacional e mais em aplicações. Em usar o que já está disponível e adaptar para nossa realidade. Tenho certeza que há uma comunidade imensa de desenvolvedores interessados nisso”.

Salim também gosta do modelo, mas teme pela demora e por um possível problema de compartilhamento de dados sigilosos: “A iniciativa é interessante, pensando principalmente em financiamento de pesquisa e geração de conhecimento em IA no país, capacitando estudantes e profissionais, mas – sempre tem um mas – estamos falando de um projeto grande e demorado para ser implementado. É interessante pensar em uma maior eficácia e na solução de problemas na escala dos problemas da rede pública em um país gigantesco como o Brasil, mas há que se redobrar o cuidado com a segurança das informações, principalmente onde há a presença de parceiros da iniciativa privada. Dados de usuários de sistemas públicos devem permanecer em sigilo e não servir para alimentar bancos de dados de empresas parceiras ou evadir dados para parceiros estrangeiros sem assegurar a privacidade dos usuários”.

Sendo um novo nome para tecnologias que já existiam, soluções práticas e até mesmo as que ameaçam algumas categorias profissionais, o fato é que a IA veio para ficar. É bom que Legislativo e Executivo estejam de olho nisso, mas é preciso fazer mais e logo, afinal a IA já está aqui e sua regulamentação ainda não, como Salim e Burgos deixaram claro.

FONTE: IGN BRASIL