Deep Blue era um sistema de
inteligência artificial extremamente evoluído cujo feito mais famoso é a sua
vitória no xadrez, contra Garry
Kasparov, o campeão humano por muitos considerado o melhor jogador de
sempre. Tal proeza deu-se nos idos de 1997, após muitos anos de trabalho na e
da máquina e, ainda mais, de trabalho do mestre. Kasparov, nessa altura com 34
anos, fora em 1985, com 22, o mais jovem campeão do mundo de xadrez e, com 13, havia
vencido o campeonato de xadrez da União Soviética. Levava, pois, em 1997, cerca
de 30 anos dedicados ao estudo e prática do xadrez de altíssimo nível. Trabalho
esse, aquele a que se sujeitam os melhores, que recentemente ajudou a mostrar
numa série de ficção de grande sucesso, “The Queen’s Gambit”, de que foi
consultor. O interesse foi tanto que desencadeou o efeito
Netflix logo a seguir à sua estreia, em outubro de 2020.
Segundo a Wikipédia - fenómeno
extraordinário de democratização da informação e, em cada vez mais “entradas”,
do conhecimento efetivo, na medida em que apresenta fontes vastas e credíveis
ou, pelo menos, verificáveis e que se mantém firmemente acessível para que cada
um que sabe alguma coisa sobre determinado assunto o possa disponibilizar ao
mundo, de modo a que cada um que quer saber alguma coisa sobre determinado
assunto o possa instantaneamente aprender – o Deep Blue “foi um
supercomputador e um software criados pela IBM especialmente para jogar xadrez;
com 256 co-processadores capazes de analisar aproximadamente 200 milhões de
posições por segundo.”.
Ora, isto diz muitíssimo sobre a
capacidade do humano Kasparov já que é perfeitamente razoável admitir que,
tendo sido para Deep Blue, primeiro um adversário imbatível e, depois, batível
com grande esforço, o seu cérebro biológico alimentado de estudo e experiência,
conseguiria analisar perto de 200 milhões de posições por segundo. Acresce que
Deep Blue era totalmente incapaz em tudo o resto e Kasparov demonstrava a
capacidade usual de um humano para muitíssimas tarefas inerentes à sua condição
e ao modo como vivia. Desde logo, sabia andar, coisa que fazia sem grande
dificuldade desde tenra idade – talvez pouco antes de começar a jogar xadrez – habilidade
que levou mais uns anos até ser conseguida por robots alimentados por
inteligência artificial (Artificial Intelligence – AI).
Pode-se ver aqui
exemplos da extraordinária evolução na locomoção e mobilidade dos robots, que
começaram a ser desenvolvidos para, em cenários de guerra, irem onde os humanos
não podiam, ou não deviam, devido à sua biológica fragilidade. Começaram por
ser uma espécie de cães extremamente desengonçados, com a vantagem dos quatro
apoios e, em duas “pernas” demoraram muito tempo a lidar com pequenos obstáculos
e muito mais tempo ainda a subir escadas. A compra da Boston Dynamics pela
Google, em 2013, foi um marco no desenvolvimento de robots hábeis em, digamos,
movimentos livres. A robótica “clássica”, muito ligada à indústria, era
essencialmente estática na sua estrutura e executava um ou mais movimentos
iguais e repetidos com grande eficácia e precisão.
A evolução foi enorme e 2021 foi
recebido por um vídeo que rapidamente se tornou viral, em que os robots da BD
dançavam exuberantemente ao som de “Do you love me?” mostrando, entre outros,
Spot, o tal dos quatro apoios, robot de algum modo parecido com um cão que pode
ser comprado desde junho, por 74.500 dólares. O que mostra que qualquer um,
desde que muito rico, pode comprar tecnologia de ponta.
A par da robótica, desenvolve-se
a AI. Extraordinariamente.
Deep Blue, programado por
humanos, acumulava informação e processava-a a um ritmo muito rápido. A AI
posterior começou a aprender sozinha, naquilo a que se chamou machine learning (ML) e, mais tarde com
as redes neurais artificiais (ANN – Artificial Neural Nets), deep learning (DL). Essa aprendizagem
começou por ser seguida de perto por cientistas humanos que tinham forte
intervenção no seu desenvolvimento e que, progressivamente, se foram afastando
do processo de programação. A ML, primeiro supervisionada, depois sem
supervisão e, por fim, usando a aprendizagem por reforço, fez um caminho
impressionante que surpreendeu os próprios cientistas, principalmente em áreas
como o reconhecimento facial e a linguagem escrita e verbal.
Foi esse tipo de aprendizagem,
que consiste em fixar objetivos, recompensando o sucesso e recusando o erro, deixando
que o sistema de AI vá tentando e progredindo, que permitiu que o AlphaGo, em
2016, depois de aprender
sozinho, em quatro horas, a jogar Go, o jogo mais complexo conhecido, tenha
conseguido algum tempo depois derrotar o campeão do mundo, ao que se seguiram
jogos com equipas
mistas.
A Singularity Hub, agora, noticia
um passo adiante.
Começa por explicar os básicos do DL: “Key to
deep learning’s success is the fact the algorithms basically write themselves.
Given some high-level programming and a dataset, they learn from experience. No
engineer anticipates every possibility in code. The algorithms just
figure it.”, isto é, os algoritmos evoluem sozinhos.
Depois, anuncia que “the DeepMind team
described a new deep reinforcement learning algorithm that was able to discover
its own value function—a critical programming rule in deep reinforcement
learning—from scratch.”, isto é, um algoritmo que cria algoritmos novos a partir
do nada.
O estudo está aqui
e a notícia da SU aqui.
A DeepMind
foi criada em 2010 e adquirida pela Google em 2014 e tem estado na liderança
da investigação que, nesta área, é realmente muito cara.
Com algoritmos a criar algoritmos
é difícil não perguntar “Então e nós, as pessoas, onde ficamos?”. Não,
DeepMind, deixa lá, não te incomodes, é uma pergunta meramente retórica. De
qualquer modo, a sério, preferimos não saber.