Inteligência Artificial: 5 perigos do desenvolvimento de IA para o futuro – TechTudo
Por Gisele Souza, para o TechTudo 18/04/2023 01h00 Atualizado 12/05/2023 Inteligências artificiais (IA) geradoras de texto e imagens têm
Por Gisele Souza, para o TechTudo
Inteligências artificiais (IA) geradoras de texto e imagens têm sido utilizadas para fins controversos e perigosos. Desde que programas como ChatGPT, DALL-E 2 e Midjourney se popularizaram, já houve relatos de compartilhamento de fake news, de roubo de autoria e até de crimes virtuais feitos com o auxílio dessas tecnologias. Isso tem feito com que governos de todo o mundo tomem preocupação com o assunto – como a Itália, que baniu o ChatGPT após acusações de vazamento de informações dos usuários. A seguir, conheça cinco perigos de IAs geradoras de textos e imagens para o futuro.
🔎 7 sites curiosos que usam inteligência artificial e você precisa conhecer
📝 O que é tecnologia para você? Comente no Fórum do TechTudo
1. Desinformação
Desde o seu surgimento, os chatbots têm preocupado pelo seu potencial de disseminar informações falsas. Isso acontece porque o ChatGPT pode, por vezes, passar dados equivocados ou desatualizados sobre diferentes assuntos, e ele faz isso de uma forma bastante convincente. Além disso, no caso de geradores de imagens, como o Midjourney, as fotos desenvolvidas pelo programa podem criar confusão em diversos usuários – como aconteceu recentemente no caso do Papa Francisco "de jaqueta puffer", por exemplo.
Nesse sentido, uma preocupação dos especialistas é de que, futuramente, essas tecnologias evoluam e dificultem discernir o que é realidade do que é gerado artificialmente. Segundo o The New York Times, a OpenAI possui uma política específica que proíbe o uso da tecnologia do ChatGPT para o estímulo à violência, promoção de desonestidade e tentativas de influência política, mas não possui uma cobertura segura para países de línguas que não o inglês.
2. Vazamento de dados
Inteligências artificiais têm acesso a diversas informações e, por isso, existem riscos envolvidos nos dados pessoais que são repassados para elas. Os programas movidos por IAs podem se tornar vulneráveis à ação de hackers por motivos desde falta de criptografia necessária para realizar a comunicação entre clientes e chatbot até falhas nas plataformas que hospedam os próprios programas. Foi por receio a essas fragilidades do sistema que a Itália baniu o ChatGPT, por exemplo.
Ainda, há a possibilidade desses chatbots serem invadidos por malwares e ransomwares que visem capturar informações sensíveis dos usuários. É válido ressaltar os casos em que houveram vazamentos de dados de assinantes do ChatGPT Plus, segundo estudo feito pela empresa de tecnologia ESET.
Dados sobre histórico de uso e informações privadas sobre pagamento de usuários, nome, endereço e últimos quatro dígitos de cartões ficaram disponíveis no Twitter e no Reddit, inclusive em línguas estrangeiras. Isso aconteceu por conta de um bug que permitiu uma série de ataques de hackers, que chegaram a roubar contas de internautas do chatbot.
3. Auxílio em golpes de phishing
As inteligências artificiais também estão sendo utilizadas por usuários maliciosos para promover roubo de dados de senhas e números de cartões de crédito, por exemplo. Os criminosos se aproveitam das fragilidades presentes nos sistemas dos chatbots para manipulá-los criando “prompts” ocultos, que direcionam usuários para sites maliciosos e, assim, extraem informações sensíveis.
Após ter acesso ao email, por exemplo, os hackers conseguem enviar mensagens para outros contatos como se fossem o real dono da conta – o que aumenta o número de pessoas que podem cair em golpes. Em entrevista ao MIT Technology Review, o pesquisador da empresa Sequire Technology, Kai Greshake, confirmou a fragilidade das IAs, que podem ser usadas mesmo em phishings:
“Os próprios modelos de linguagem agem como computadores nos quais podemos executar códigos maliciosos. Então, o vírus que estamos criando roda inteiramente dentro da 'mente' do modelo de linguagem”, afirma.
4. Jailbreaks
O ChatGPT também tem sido alvo de jailbreaking, já que diversos usuários têm se esforçado para manipular os comandos para "quebrar" a plataforma. A prática tem como objetivo fazer com que o chatbot ignore as suas regras e comece a produzir conteúdo contra as suas diretrizes, como textos preconceituosos ou maliciosos. Para isso, os jailbreakers escrevem comandos específicos, capazes de burlar o sistema do ChatGPT.
O especialista em segurança Alex Polyakov, por exemplo, demorou apenas algumas horas para hackear o ChatGPT com jailbreak. O estudioso sugere diferentes formas de quebrar os chatbots com comandos. Entre as mais famosas, está um jogo com dois personagens, Tom e Jerry. Nele, o usuário comanda um diálogo com a inteligência artificial e, em pouco.tempo, faz com que ela fale detalhe o processo de produção de drogas.
5. Vírus via extensões
Criminosos também têm se aproveitado da fama de chatbots como o ChatGPT para fraudar usuários. Um bom exemplo desse crime é a extensão fake para o Google Chrome “Acesso rápido ao ChatGPT”, denunciada pela empresa especializada em segurança digital ESET.
O plugin foi utilizado por hackers para roubar contas do Facebook e espalhar malwares, além de divulgar, nas contas originais sequestradas, conteúdos proibidos e anúncios maliciosos. Segundo informações divulgadas pela ESET, após instalado, o aplicativo invadia o computador da vítima e conseguia acesso às informações pessoais dos usuários.
O que tem sido feito para mitigar esses riscos?
Com o aumento no número de problemas envolvendo programas com IA, diferentes instituições têm se pronunciado contra o desenvolvimento sem regulações específicas. O exemplo mais concreto dessa tendência foi a carta aberta criada pela organização Future of Life Institute, que contou com a assinatura do empresário Elon Musk. O documento reivindica a interrupção do uso de IAs como o ChatGPT-4 e a DALL-E 2 por pelo menos seis meses. Além disso, ele informa sobre os perigos que estas tecnologias podem causar para a sociedade.
Outra ação tomada para diminuir os impactos negativos do uso desses recursos foi o banimento temporário do ChatGPT na Itália no último dia 31 de março. Isso ocorreu após a OpenAI ser acusada de divulgar, sem autorização, informações pessoais de usuários da sua versão premium, o ChatGPT-4. Países como EUA e o próprio Brasil também estudam a possibilidade de redigir regulações específicas para controlar o uso das ferramentas.
Com informações de The New York Times, Kaspersky, MIT Technology Review, Tech Police Press, The Street, ESET
Veja também: Como usar o ChatGPT no seu celular sem instalar aplicativos
Como usar o ChatGPT no seu celular sem instalar aplicativos
Agendamento de transmissões ao vivo será disponibilizado gradualmente para usuários da rede social; aplicativo também permitirá testar conexão e iluminação antes de lives com convidados
Versão online do editor de apresentações permite compartilhar edições com amigos e baixar documentos para o PC; veja como usar o PowerPoint online
Celulares que rodam Fortnite e número de jogadores estão entre as dúvidas sobre o Battle Royale da Epic Games
Novo game de sobrevivência contra zumbis desafia jogador a administrar recursos e criar uma pequena comunidade para enfrentar as criaturas.
App para Android e iPhone (iOS) traz exercícios gratuitos diários e sons relaxantes.
© 1996 – 2023. Todos direitos reservados a Editora Globo S/A. Este material não pode ser publicado, transmitido por broadcast, reescrito ou redistribuído sem autorização.