Na segunda-feira, 22 de maio de 2023, uma conta verificada do Twitter chamada “Bloomberg Feed” compartilhou um tweet alegando que havia um explosão no Pentágono, acompanhado por uma imagem. Se você está se perguntando o que isso tem a ver com inteligência artificial (IA), a imagem foi gerada por IA, com o tweet rapidamente se tornando viral e provocando uma breve queda no mercado de ações. As coisas poderiam ter sido muito piores – um lembrete gritante dos perigos da inteligência artificial.
Perigos da Inteligência Artificial
Não é apenas com notícias falsas que precisamos nos preocupar. Existem muitos riscos imediatos ou potenciais associados à IA, desde os que dizem respeito à privacidade e segurança até aos preconceitos e questões de direitos de autor. Iremos mergulhar em alguns destes perigos da inteligência artificial, ver o que está a ser feito para os mitigar agora e no futuro e perguntar se os riscos da IA superam os benefícios.
Notícias Falsas
Quando os deepfakes surgiram pela primeira vez, surgiram preocupações de que eles poderiam ser usados com más intenções. O mesmo pode ser dito da nova onda de Geradores de imagens de IA, como DALL-E 2, Midjourney ou DreamStudio. Em 28 de março de 2023, o falso Imagens geradas por IA do Papa Francisco em uma jaqueta Balenciaga branca e curtindo diversas aventuras, incluindo andar de skate e jogar pôquer, se tornou viral. A menos que você estudasse as imagens de perto, seria difícil distingui-las da realidade.
Embora o exemplo com o papa tenha sido sem dúvida um pouco divertido, a imagem (e o tweet que a acompanha) sobre o Pentágono foi tudo menos isso. As imagens falsas geradas pela IA têm o poder de prejudicar reputações, acabar com casamentos ou carreiras, criar agitação política e até iniciar guerras se forem utilizadas pelas pessoas erradas – em suma, estas imagens geradas pela IA têm o potencial de ser extremamente perigosas se utilizadas indevidamente.
Com os geradores de imagens de IA agora disponíveis gratuitamente para qualquer pessoa usar, e Photoshop adicionando um gerador de imagens AI com seu popular software, a oportunidade de manipular imagens e criar notícias falsas é maior do que nunca.
Privacidade, segurança e hackers
A privacidade e a segurança também são grandes preocupações quando se trata dos riscos da IA, com vários países já banindo o ChatGPT da OpenAI. A Itália proibiu o modelo devido a preocupações com a privacidade, acreditando que não cumpre o Regulamento Geral Europeu de Proteção de Dados (GDPR), enquanto a China, a Coreia do Norte e os governos da Rússia o proibiram devido ao receio de que espalhasse desinformação..
Então por que estamos tão preocupados com a privacidade quando se trata de IA? Aplicativos de IA e os sistemas coletam grandes quantidades de dados para aprender e fazer previsões. Mas como esses dados são armazenados e processados? Existe um risco real de violações de dados, hackers e informações caírem em mãos erradas.
Não são apenas os nossos dados pessoais que estão em risco. O hacking de IA é um risco genuíno – ainda não aconteceu, mas se pessoas com intenções maliciosas pudessem invadir sistemas de IA, isso poderia ter consequências graves. Por exemplo, os hackers poderiam controlar veículos sem condutor, hackear sistemas de segurança de IA para obter acesso a locais altamente seguros e até hackear sistemas de armas com segurança de IA.
Especialistas da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) do Departamento de Defesa dos EUA reconhecem esses riscos e já estão trabalhando no projeto Garantindo a Robustez da IA Contra a Decepção (GARD) da DARPA, abordando o problema desde o início. O objetivo do projeto é garantir que a resistência a hackers e adulterações seja incorporada aos algoritmos e à IA.
Violação de direitos autorais
Outro perigo da IA é a violação de direitos autorais. Isto pode não parecer tão sério quanto alguns outros perigos que mencionamos, mas o desenvolvimento de modelos de IA como o GPT-4 coloca todos em maior risco de infração.
Cada vez que você pede ao ChatGPT para criar algo para você, seja uma postagem de blog sobre viagens ou um novo nome para sua empresa, você está fornecendo informações que ele usará para responder a consultas futuras. As informações que ele fornece podem estar infringindo os direitos autorais de outra pessoa, e é por isso que é tão importante usar um detector de plágio e editar qualquer conteúdo criado pela IA antes de publicá-lo.
Viés social e de dados
A IA não é humana, então não pode ser tendenciosa, certo? Errado. Pessoas e dados são usados para treinar modelos de IA e bots de bate-papo, o que significa que dados ou personalidades tendenciosas resultarão em uma IA tendenciosa. Existem dois tipos de preconceito na IA: preconceito social e preconceito de dados.
Com muitos preconceitos presentes na sociedade cotidiana, o que acontece quando esses preconceitos se tornam parte da IA? Os programadores responsáveis pelo treinamento do modelo podem ter expectativas tendenciosas, que então chegam aos sistemas de IA..
Ou os dados usados para treinar e desenvolver uma IA podem estar incorretos, tendenciosos ou coletados de má-fé. Isto leva a preconceitos de dados, que podem ser tão perigosos quanto preconceitos sociais. Por exemplo, se um sistema de reconhecimento facial for treinado utilizando principalmente rostos de pessoas brancas, poderá ter dificuldade em reconhecer pessoas de grupos minoritários, perpetuando a opressão.
Robôs assumindo nossos empregos
O desenvolvimento de chatbots como ChatGPT e Google Bard abriu uma preocupação totalmente nova em torno da IA: o risco de que robôs tire nossos empregos. Já estamos vendo escritores da indústria de tecnologia sendo substituídos por IA, desenvolvedores de software preocupados em perder seus empregos para bots e empresas usando ChatGPT para criar conteúdo de blog e conteúdo de mídia social em vez de contratar escritores humanos.
De acordo com o Relatório O Futuro do Emprego 2020 do Fórum Económico Mundial, espera-se que a IA substitua 85 milhões de empregos em todo o mundo até 2025. Mesmo que a IA não substitua os escritores, ela já está sendo usada como ferramenta por muitos. Aqueles em empregos que correm o risco de serem substituídos pela IA podem precisar se adaptar para sobreviver. Por exemplo, os escritores podem se tornar engenheiros de IA, permitindo-lhes trabalhar com ferramentas como ChatGPT para criação de conteúdo, em vez de serem substituídos por esses modelos.
Riscos potenciais futuros de IA
Todos esses são riscos imediatos ou iminentes, mas e quanto a alguns dos perigos menos prováveis, mas ainda possíveis, da IA que poderemos ver no futuro? Isso inclui coisas como a IA sendo programada para prejudicar humanos, por exemplo, armas autônomas treinadas para matar durante uma guerra.
Além disso, existe o risco de a IA se concentrar exclusivamente no objetivo programado, desenvolvendo comportamentos destrutivos ao tentar atingir esse objetivo a todo custo, mesmo quando os humanos tentam impedir que isso aconteça.
A Skynet nos ensinou o que acontece quando uma IA se torna senciente. No entanto, embora o engenheiro do Google Blake Lemoine possa ter tentado convencer a todos de que LaMDA, o gerador de chatbot artificialmente inteligente do Google era senciente em junho de 2022, felizmente não há evidências até o momento que sugiram que isso seja verdade.
Os desafios da regulamentação da IA
Na segunda-feira, 15 de maio de 202, O CEO da OpenAI, Sam Altman, participou da primeira audiência do Congresso sobre inteligência artificial, alertando: “Se esta tecnologia der errado, pode dar muito errado”. O OpenAI CO deixou claro que é a favor da regulamentação e trouxe muitas de suas próprias ideias para a audiência. O problema é que a IA está evoluindo a tal velocidade que é difícil saber por onde começar com a regulamentação..
O Congresso quer evitar cometer os mesmos erros cometidos no início da era das mídias sociais, e uma equipe de especialistas ao lado do líder da maioria no Senado, Chuck Schumer, já está trabalhando em regulamentações que exigiriam que as empresas revelassem quais fontes de dados usaram para treinar. modelos e quem os treinou. Pode levar algum tempo até que exatamente como a IA será regulamentada se torne claro, e sem dúvida haverá reação das empresas de IA.
A ameaça de uma inteligência artificial geral
Há também o risco da criação de uma inteligência artificial geral (AGI) que poderia realizar qualquer tarefa que um ser humano (ou animal) pudesse realizar. Frequentemente mencionado em filmes de ficção científica, provavelmente ainda estamos a décadas de tal criação, mas se e quando criarmos uma AGI, isso poderá representar uma ameaça para a humanidade.
Muitas figuras públicas já endossam a crença de que a IA representa uma ameaça existencial para os seres humanos, incluindo Stephen Hawking, Bill Gates e até mesmo o ex-CEO do Google, Eric Schmidt, que afirmou: “A inteligência artificial pode representar riscos existenciais e os governos precisam saber como para garantir que a tecnologia não seja mal utilizada por pessoas más.”
Então, a inteligência artificial é perigosa e seus riscos superam seus benefícios? O júri ainda não decidiu sobre isso, mas já estamos vendo evidências de alguns dos riscos que nos rodeiam neste momento. É menos provável que outros perigos se concretizem tão cedo, se é que se concretizarão. Porém, uma coisa é certa: os perigos da IA não devem ser subestimados. É de extrema importância garantirmos que a IA seja devidamente regulamentada desde o início, para minimizar e, esperançosamente, mitigar quaisquer riscos futuros.
.