Tecnologia foi capaz de aprender a jogar games
sem ter sido programada para tal
Cientistas
britânicos desenvolveram uma rede neural artificial (RNA) capaz de aprender a
jogar diversos videogames em nível comparável ao de um expert, sem ter sido
previamente programada para isso, segundo estudo divulgado pela revista"Nature".
A DeepMind
Technologies, empresa adquirida pelo Google em
janeiro de 2014, combinou técnicas de aprendizagem computacionais já conhecidas
com mecanismos inspirados na biologia para conseguir que seu "agente
artificial" aprendesse a jogar 49 jogos clássicos do videogame Atari 2600.
O
sistema é capaz de descobrir o objetivo do jogo e dominar seus controles, sem
contar com nenhuma outra informação além das que aparecem na tela e a pontuação
da partida. Graças aos mecanismos de adaptação e aprendizagem, a máquina atua
em um nível comparável ao de um expert em videogames.
Os criadores do sistema destacaram que a aplicação
da inteligência artificial aos videogames é apenas uma demonstração da potência
de seu algoritmo, que pode ser designado para outro tipo de uso ou função.
Demis
Hassabis, um dos desenvolvedores, explicou em entrevista coletiva que sua rede
neural é um artefato de natureza distinta de outras máquinas, como o conhecido
Deep Blue - computador que em 1996 derrotou pela primeira vez um campeão
mundial de xadrez, o russo Gary Kasparov.
"A
diferença é que as habilidades do Deep Blue estavam programadas de antemão. Uma
equipe de engenheiros e professores de xadrez aplicou todo seu conhecimento em
um algoritmo que era executado com sucesso, mas sem precisar aprender
nada", afirmou Hassabis.
"Nossa
sistema, por outro lado, começa do zero, sem nenhuma informação. Conta somente com a
experiência perceptiva. Ele
precisa aprender apenas quais padrões deve seguir. A ideia é que possa se
adaptar a situações inesperadas", acrescentou.
O
pesquisador disse que os sistemas de redes neurais artificiais são "mais
humanos" que outros tipos de programas de inteligência artificial, porque
assimilam o mundo que os rodeia e encontram um modelo que os permite tomar
decisões.
No
caso dos videogames, o sistema aprende que determinadas ações são mais
recomendáveis, de acordo com a pontuação que alcança em cada partida.
Com
essa estratégia, é capaz de se sobressair em jogos de todos os tipos: de
plataformas, disparos, boxe ou corridas, o que demonstra que "uma única
arquitetura pode desenvolver ótimas táticas para uma ampla variedade de
situações", afirmou Hassabis.
"O
sistema pode ser usado para qualquer tarefa que envolva tomadas de decisões
sequenciais. Não programamos nada específico para jogar videogames de Atari. É
um programa de aprendizagem geral", disse Koray Kavukcuoglu, funcionário
da DeepMind.
A
empresa é propriedade do Google desde o ano passado, que a adquiriu por cerca
de R$ 1,5 bilhão em um leilão, do qual também participaram outras grandes
companhias do setor tecnológico, como o Facebook.
Veja mais: http://revistagalileu.globo.com/Tecnologia/noticia/2015/02/rede-neural-artificial-capaz-de-aprender-sozinha-e-desenvolvida-por-empresa-do-google.html
Nenhum comentário:
Postar um comentário