Em nossa humilde opinião, a IA deveria ser abraçada, não temida. A maioria das pessoas associa essa tecnologia à HAL ou à Skynet, mas os possíveis benefícios positivos da IA ​​parecem superar os temores de que nossas criações ganhem senciência e destruam todos nós.

Na verdade, a IA só será tão benevolente ou má quanto as intenções humanas.

Um relatório de 101 páginas intitulado O Uso Malicioso da Inteligência Artificial de pesquisadores de Yale, Oxford, Cambridge e OpenAI enfatiza que o perigo real dessa tecnologia pode vir de hackers empunhando códigos maliciosos para direcionar vulnerabilidades em sistemas automatizados por IA, dando às pessoas maior capacidade causar dano físico ou político.

Lançado na quarta-feira e primeiro coberto pela CNBC, este relatório enfatiza “uso duplo” natureza da IA: programas automatizados construídos com a melhor das intenções podem ser transformados em tecnologia prejudicial. O que devemos temer mais? “Ferramentas de vigilância [AI] podem ser usadas para capturar terroristas ou oprimir cidadãos comuns,” foi um exemplo dado pelo relatório, ou drones comerciais para entrega de mercearia sendo armados.

Outro cenário descrito envolveu carros autônomos. Eles alertam que os hackers poderiam alterar apenas “alguns pixels” de um conceito de IA de um sinal de parada, uma mudança pequena o suficiente para que os humanos pudessem não notar a diferença, mas poderia fazer com que uma frota inteira de carros no servidor de uma empresa começasse a ignorar as leis de segurança.

Os autores organizaram potenciais ameaças de segurança em categorias digitais, físicas e políticas:

  • A IA já está acostumada a estudar vulnerabilidades de código corrigidas e extrapolar o que novas poderiam ser para os bots explorarem; no futuro, os IAs poderiam dar a bots hábitos de navegação semelhantes aos humanos, tornando os ataques DoS impossíveis de se defender contra
  • Automação poderia “dotar indivíduos de baixa habilidade com capacidades de ataque anteriormente de alta habilidade”; em teoria, uma pessoa poderia controlar um “mini enxame” de drones usando um script de IA de coordenação
  • As repercussões políticas podem incluir “deepfake” tecnologia sendo usada para difamar a reputação de um líder político, ou automatizar a desinformação e trolling que a Rússia atualmente promulga para influenciar futuras eleições.

Antecipando os piores cenários

Esses exemplos, por mais assustadores que sejam, em sua maioria permanecem hipotéticos, e o relatório não pretende implicar que as inteligências artificiais devam ser banidas como perigosas por natureza..

Em vez disso, os autores do relatório ressaltam que certos itens de ação devem ser postos em ação pelos governos e empresas agora, enquanto a indústria ainda é incipiente..

Os formuladores de políticas nos governos mundiais, eles dizem, devem começar a estudar a tecnologia e trabalhar com especialistas na área para efetivamente regulamentar a criação e o uso da IA. Enquanto isso, os desenvolvedores de IA precisam se auto-regular, sempre antecipando as implicações mais pessimistas de sua tecnologia e alertando os formuladores de políticas sobre eles com antecedência..

O relatório também pede que os desenvolvedores de AI se juntem a especialistas em segurança em outras áreas, como a segurança cibernética, e veja se os princípios que mantêm essas tecnologias seguras também poderiam ser usados ​​para salvaguardar a inteligência artificial..

O relatório completo é muito mais detalhado do que podemos resumir aqui. Mas a essência é que a IA é uma ferramenta poderosa e, como acontece com qualquer nova tecnologia, os governos e as partes interessadas em seu desenvolvimento precisam estudá-la para garantir que ela não seja explorada para fins nefastos..

  • Para todas as aplicações e implicações positivas da IA, confira nosso AI Week Hub para ver como a IA está melhorando nossas vidas.