Os 10 avanços mais importantes em Inteligência Artificial
Notícia“Inteligência artificial” é atualmente a palavra mais quente da tecnologia. E com boas razões - depois de décadas de pesquisa e desenvolvimento, os últimos anos viram uma série de técnicas que antes eram de preservação da ficção científica lentamente se transformando em fatos científicos..
As técnicas de IA já são uma parte profunda de nossas vidas: a IA determina nossos resultados de pesquisa, traduz nossas vozes em instruções significativas para computadores e pode até mesmo ajudar a classificar nossos pepinos (mais sobre isso depois). Nos próximos anos, usaremos a IA para dirigir nossos carros, responderemos às nossas consultas de atendimento ao cliente e, bem, inúmeras outras coisas.
Mas como chegamos aqui? De onde veio essa poderosa nova tecnologia? Aqui estão dez dos grandes marcos que nos levaram a esses tempos emocionantes.
Obtendo a "grande ideia"
O conceito de IA não apareceu de repente - é o assunto de um profundo debate filosófico que ainda hoje ocorre: uma máquina pode realmente pensar como um humano? Pode uma máquina estar humano? Uma das primeiras pessoas a pensar sobre isso foi René Descartes, em 1637, em um livro chamado Discurso sobre o método. Surpreendentemente, dado no momento em que até mesmo um Amstrad Em @ iler teria parecido incrivelmente futurista, Descartes resumiu algumas das questões e desafios cruciais que os tecnólogos teriam que superar:
“Se houvesse máquinas que tivessem uma semelhança com nossos corpos e imitassem nossas ações o mais próximo possível para todos os propósitos práticos, nós ainda deveríamos ter dois meios muito certos de reconhecer que eles não eram homens de verdade..”
Um retrato de René Descartes
Ele prossegue explicando que, em sua opinião, as máquinas nunca poderiam usar palavras ou “colocar juntos sinais” para “declarar nossos pensamentos para os outros”, e que mesmo se pudéssemos conceber uma máquina dessas, “Não é concebível que tal máquina produza diferentes arranjos de palavras, de modo a dar uma resposta apropriadamente significativa àquilo que é dito em sua presença, como o mais maçante dos homens pode fazer..”
Ele então descreve o grande desafio do momento: criar uma IA generalizada em vez de algo estreitamente focado - e como as limitações da IA atual exporiam como a máquina definitivamente não é humana:
“Mesmo que algumas máquinas possam fazer algumas coisas tão bem quanto nós, ou talvez até melhor, elas iriam inevitavelmente falhar em outras, o que revelaria que elas estão agindo não pelo entendimento, mas apenas pela disposição de seus órgãos..”
Então agora, graças a Descartes, quando se trata de AI, temos o desafio.
O jogo da imitação
O segundo maior referencial filosófico veio da cortesia do pioneiro da ciência da computação Alan Turing. Em 1950, ele descreveu pela primeira vez o que ficou conhecido como The Turing Test, e ao que ele se referiu como “O jogo da imitação” - um teste para medir quando finalmente podemos declarar que as máquinas podem ser inteligentes.
Seu teste foi simples: se um juiz não pode diferenciar entre um humano e uma máquina (digamos, através de uma interação somente de texto com ambos), a máquina pode enganar o juiz e pensar que eles são os únicos que são humanos??
Alan Turing, pioneiro da computação britânica
Amusingly no momento, Turing fez uma previsão ousada sobre o futuro da computação - e ele contou que até o final do século 20, seu teste terá sido passado. Ele disse:
“Acredito que em cerca de cinquenta anos será possível programar computadores, com uma capacidade de armazenamento de cerca de [1GB], para fazê-los reproduzir tão bem o jogo da imitação que um interrogador médio não terá mais de 70% de chance de fazer. a identificação correta após cinco minutos de questionamento ... Acredito que, no final do século, o uso das palavras e da opinião geral educada terá mudado tanto que poderemos falar de máquinas pensando sem esperar que elas sejam contraditas..”
Infelizmente, sua previsão é um pouco prematura, já que enquanto estamos começando a ver uma IA verdadeiramente impressionante agora, em 2000 a tecnologia era muito mais primitiva. Mas, pelo menos, ele teria ficado impressionado com a capacidade do disco rígido - que, em média, era de cerca de 10 GB na virada do século..
A primeira rede neural
“Rede neural” é o nome fantasia que os cientistas dão à tentativa e erro, o conceito-chave que desencadeia a IA moderna. Essencialmente, quando se trata de treinar uma IA, a melhor maneira de fazer isso é fazer com que o sistema adivinhe, receba feedback e adivinhe novamente - mudando constantemente as probabilidades de que ele obterá a resposta certa..
Uma imagem criada por uma Rede Neural do Google.
O que é incrível é que a primeira rede neural foi criada em 1951. Chamado “SNARC” - o Computador de Reforço Analógico Neural Estocástico - foi criado por Marvin Minsky e Dean Edmonds e não foi feito de microchips e transistores, mas de tubos de vácuo, motores e embreagens.
O desafio para esta máquina? Ajudar um rato virtual a resolver um quebra-cabeça de labirinto. O sistema enviaria instruções para navegar no labirinto e cada vez que os efeitos de suas ações fossem realimentados no sistema - os tubos de vácuo sendo usados para armazenar os resultados. Isso significa que a máquina foi capaz de aprender e mudar as probabilidades - levando a uma maior chance de passar pelo labirinto..
É essencialmente uma versão muito simples do mesmo processo que o Google usa para identificar objetos em fotos hoje.
O primeiro carro autônomo
Quando pensamos em carros autônomos, pensamos em algo como o projeto Waymo do Google - mas, surpreendentemente, em 1995, a Mercedes-Benz conseguiu conduzir um S-Class modificado de maneira quase autônoma desde Munique até Copenhague..
Um recente Mercedes S-Class
De acordo com a AutoEvolution, a jornada de 1043 milhas foi feita colocando efetivamente um supercomputador no porta-malas - o carro continha 60 chips de computador, que na época eram o estado da arte quando se tratava de computação paralela, o que significa que Dirigindo dados rapidamente - uma parte crucial de tornar os carros autônomos suficientemente responsivos.
Aparentemente, o carro atingiu velocidades de até 115 mph, e foi realmente bastante semelhante aos carros autônomos de hoje, como foi capaz de ultrapassar e ler os sinais de trânsito. Mas se nos oferecessem uma viagem? Humm ... nós insistir Você vai primeiro.
Mudando para estatísticas
Apesar das redes neurais terem existido como conceito por algum tempo (veja acima!), Não foi até o final dos anos 80, quando houve uma grande mudança entre os pesquisadores “regras baseadas” abordagem a um baseado em estatísticas - ou aprendizado de máquina. Isso significa que, em vez de tentar construir sistemas que imitem a inteligência, tentando adotar as regras pelas quais os humanos operam, ao invés disso, adotar uma abordagem de tentativa e erro e ajustar as probabilidades com base no feedback é uma maneira muito melhor de ensinar as máquinas a pensar. Isso é um grande negócio - como é este conceito que sustenta as coisas incríveis que a IA pode fazer hoje.
Gil Press na Forbes argumenta que essa mudança foi anunciada em 1988, como o Centro de Pesquisa TJ Watson da IBM publicou um documento chamado “Uma abordagem estatística para tradução de idiomas”, que é especificamente falando sobre o uso de aprendizado de máquina para fazer exatamente o que o Google Tradutor funciona hoje.
A IBM aparentemente alimentou em seu sistema 2,2 milhões de pares de frases em francês e inglês para treinar o sistema - e as sentenças foram tiradas das transcrições do Parlamento canadense, que publica seus registros em ambas as línguas - o que parece muito, mas não é nada comparado para o Google ter toda a internet à sua disposição - o que explica porque o Google Tradutor é tão assustadoramente bom hoje.
Deep Blue vence Garry Kasparov
Apesar da mudança de foco para os modelos estatísticos, os modelos baseados em regras ainda estavam em uso - e em 1997 a IBM foi responsável por talvez a mais famosa partida de xadrez de todos os tempos, como Garry Kasparov, campeão mundial de xadrez, demonstrando o quão poderoso máquinas podem ser.
A luta foi na verdade uma revanche: em 1996 Kasparov venceu o Deep Blue por 4-2. Foi apenas em 1997 que as máquinas chegaram ao topo, vencendo dois dos seis jogos a íntegra e levando Kasparov a empatar em mais três..
A inteligência do Deep Blue era, até certo ponto, ilusória - a própria IBM calcula que sua máquina não está usando Inteligência Artificial. Em vez disso, o Deep Blue usa uma combinação de processamento de força bruta - processando milhares de movimentos possíveis a cada segundo. A IBM alimentou o sistema com dados de milhares de jogos anteriores e, a cada vez que a placa mudava a cada filme, o Deep Blue não aprenderia nada de novo, mas estaria procurando como os grandes mestres anteriores reagiram nas mesmas situações.. “Ele está jogando os fantasmas dos grandes mestres,” como a IBM coloca.
Se isso realmente conta como AI ou não, o que está claro é que foi definitivamente um marco significativo, e que atraiu muita atenção não apenas para as habilidades computacionais dos computadores, mas também para o campo como um todo. Desde o confronto com Kasparov, superar os jogadores humanos nos jogos se tornou uma maneira importante e populista de comparar a inteligência das máquinas - como vimos novamente em 2011, quando o sistema Watson da IBM superou com força dois dos jogos Perigoos melhores jogadores.
Siri unhas linguagem
O processamento de linguagem natural há muito tempo é um santo graal da inteligência artificial - e crucial se formos ter um mundo onde existam robôs humanóides, ou onde possamos latir ordens em nossos dispositivos como em Jornada nas Estrelas.
E é por isso que o Siri, que foi construído usando os métodos estatísticos mencionados acima, foi tão impressionante. Criado pela SRI International e até lançado como um aplicativo separado na loja de aplicativos iOS, ele foi rapidamente adquirido pela própria Apple e profundamente integrado ao iOS: hoje ele é um dos frutos mais importantes do aprendizado de máquina, produtos equivalentes do Google (o Assistente), da Microsoft (Cortana) e, é claro, do Alexa da Amazon, mudaram a forma como interagimos com nossos dispositivos de uma maneira que pareceria impossível apenas alguns anos antes.
Hoje nós tomamos isso como garantido - mas você só precisa perguntar a qualquer um que já tenha tentado usar uma voz para enviar uma inscrição em texto antes de 2010 para avaliar o quão longe chegamos.
O desafio do ImageNet
Como o reconhecimento de voz, o reconhecimento de imagem é outro grande desafio que a IA está ajudando a vencer. Em 2015, pesquisadores concluíram pela primeira vez que máquinas - neste caso, dois sistemas concorrentes do Google e da Microsoft - eram melhores em identificar objetos em imagens do que os humanos, em mais de 1000 categorias..
Estes “aprendizagem profunda” Os sistemas foram bem-sucedidos em vencer o ImageNet Challenge - pense em algo como o Teste de Turing, mas para reconhecimento de imagem - e eles serão fundamentais se o reconhecimento de imagens for além da capacidade humana.
Os aplicativos para reconhecimento de imagem são, é claro, numerosos - mas um exemplo divertido que o Google gosta de promover ao promover sua plataforma de aprendizado de máquina TensorFlow é classificar pepinos: usando a visão computacional, um agricultor não precisa empregar humanos para decidir se os vegetais estão prontos para a mesa de jantar - as máquinas podem decidir automaticamente, tendo sido treinadas em dados anteriores.
GPUs tornam a AI econômica
Uma das grandes razões pelas quais a IA é hoje tão importante é que é apenas nos últimos anos que o custo de processar tantos dados se tornou acessível..
De acordo com a Fortune, foi apenas no final dos anos 2000 que os pesquisadores perceberam que as unidades de processamento gráfico (GPUs), que foram desenvolvidas para gráficos 3D e jogos, eram 20-50 vezes melhores em computação de aprendizagem profunda do que as CPUs tradicionais. E assim que as pessoas perceberam isso, a quantidade de poder de computação disponível aumentou enormemente, permitindo as plataformas de nuvem em nuvem que alimentam inúmeros aplicativos de inteligência artificial hoje.
Então, obrigado, gamers. Seus pais e cônjuges podem não gostar de você passar tanto tempo jogando videogames - mas os pesquisadores da AI certamente.
AlphaGo e AlphaGoZero conquistam todos
Em março de 2016, outro marco de Inteligência Artificial foi alcançado, com o software AlphaGo do Google sendo capaz de vencer Lee Sedol, um dos melhores jogadores do jogo de tabuleiro Go, em um eco do histórico jogo de Garry Kasparov..
O que tornou significativo não foi apenas que Go é um jogo matematicamente mais complexo do que o Chess, mas que foi treinado usando uma combinação de oponentes humanos e IA. O Google venceu quatro de cinco dos jogos usando supostamente CPUs de 1920 e 280 GPUs..
Talvez ainda mais importante seja a notícia do ano passado - quando uma versão posterior do software, AlphaGo Zero. Em vez de usar dados anteriores, como AlphaGo e Deep Blue, para aprender o jogo, ele simplesmente jogou milhares de partidas contra si mesmo - e depois de três dias de treinamento foi capaz de vencer a versão do AlphaGo que derrotou Lee Sedol em 100 partidas. Quem precisa ensinar uma máquina a ser inteligente, quando uma máquina pode ensinar a si mesma?
- TechRadar Semana AI é trazido a você em associação com a Honra.