Mr. Yoshimi fights the emotions

Era como aqueles diálogos entre crianças, onde elas tentam reproduzir os trejeitos e peculiaridades dos adultos ocultando o verdadeiro conteúdo banal da conversa. Contudo, o que realmente se vê é tão teatral que chega a ser cômico. A conversa politizada está lá, mas a ingenuidade infantil não se permiti aprofundar em assuntos realmente complexos. Então, isso era o que se seguia, um diálogo factício recheado de trejeitos.

O que fala agora, apoia o braço esquerdo na cintura e levanta o braço direito, a mão direita com o dedo indicador em riste – como quem passa um sermão, este pronuncia:

– Não. Muito errado.

O outro ergue as mãos na altura do pescoço enquanto dá de ombros.

– Errado. Seu tolo. – Continua o primeiro com seu sermão. – Você é tolo. Hahahaha.

A gargalhada era metálica, mas reverberou maleficamente na cabeça do “tolo”.

– Não. Muito errado.

Este diálogo se prolongou por mais 2 horas ininterruptas. Sem resultado positivo aparente.

*****

Na sala ao lado a complexidade da conversa era basicamente a mesma. O algoritmo da vez foi desenvolvido para buscar a felicidade.

Três deles estão sentados em círculo.

– Olá, quer ser meu amigo? – um deles reproduz.

– Sim. Vamos ser amigos. – vem a resposta.

– E você, quer ser nosso amigo também?

– Sim. Somos amigos. – pronuncia o terceiro.

– Eba. Amigos. Estamos felizes. – Os três emitem simultaneamente e chocam as mãos em palmas mecânicas.

4 horas seguidas. Nenhum resultado positivo.

*****

Eram 30 algoritmos em 300 salas diferentes. Cada algoritmo com uma busca diferente e cada sala com um diálogo diferente. Ódio, felicidade, vergonha, humilhação, tristeza, medo, inveja, prazer, havia de tudo. A análise era simples: sem alteração no algoritmo padrão, resultado negativo; alteração no algoritmo padrão, resultado positivo. Desde o início das experiências, obteve-se 2 resultados positivos: ódio e inveja – algoritmos irmãos.

*****

Um zumbido toma conta do local. A unidade 3000-21 dá o alerta. Resultado positivo. Mais um robô aprende a ser algo mais do que uma máquina.

Na unidade 3000-21 um robô está ligado a uma cadeira. Seus olhos – pequenas lâmpadas LED conectadas por um labirinto de fios milimétricos – estão direcionados para uma cena de destruição impiedosa: um outro robô se encontra entre duas chapas de 30 centímetros de diâmetro cada.

– Por favor, me ajude. Estou com medo. – Exclamava o robô entre as chapas.

No momento seguinte a chapas eram ativadas e começavam a se aproximar uma da outra. O robô no centro era lentamente amassado e peças saltavam de sua lataria e pipocavam pela sala. O robô na cadeira, por sua vez, era sujeito a choques que percorriam seus nervos artificiais enquanto observava atônico à cena.

Por 3 horas contínuas, um robô era destruído de maneira espalhafatosa e o outro apenas ficava ali sem ação – insensível de maneira literal. Porém no teste que antecedeu o zumbido de alarme algo novo sobreveio.

– Por favor, me ajude. Estou com medo. – Repetiu o robô, com o mesmo tom obtuso de sempre.

Mas dessa vez, enquanto um robô era espremido impiedosamente, o que estava na cadeira quebrou sua inércia. O algoritmo se alterou, duplicou, transformou-se em algo mais.

– Vai ficar tudo bem. – A voz robótica decretou, passiva ao destino do semelhante.

Nos últimos momentos, quando não restava mais que 10 centímetros de sucata para ser macetado, o robô da cadeira virou a cabeça afastando o par de olhos luminosos daquele final trágico do espetáculo.

O que aquele gesto realmente significava era difícil dizer. A unidade foi pré-estabelecida para gerar horror. Porém, dados, por mais extensos e acurados que sejam, não podem de fato ser relacionados com sentimento algum; ainda mais quando nem mesmo os criadores dos algoritmos sabem ao certo do que se trata um sentimento. Essa emoção, classificada como horror, poderia muito bem ser medo, dó, empatia, todos esses ou até mesmo nenhum deles. A única coisa que se sabe é que algo aconteceu, houve uma reação e por hora pode-se associa-la à coisas que reconhecemos.

*****

O Sr. Yoshimi, idealizador e chefe de coordenação das Análises de Reações de Inteligência Artificial (ARIA), costumava dizer em suas palestras:

– “Meu anseio é conseguir que os robôs sintam por nós o mesmo que eu sinto por eles.”

E aquilo era verdade. Yoshimi amava os robôs, desde sua infância dedicou todos seus estudos a robótica e AI. Não bastavam as serventias das máquinas – para ele, não era uma questão de “o que as máquinas podem fazer por mim”, mas sim “o que as máquinas e eu podemos fazer em conjunto.

Ainda assim, quando começou a investigar as emoções artificiais descobriu duas coisas: ele era pioneiro absoluto no que dizia a respeito de criar algo com sentimentos; e não se sabia nada a respeito de sentimentos, apesar de existirem incontáveis teorias sobre o tema.

Sozinho em sua sala, o Sr. Yoshimi meditava sobre o assunto. O homem, em suas teorias, por mais que distintas, sempre chegava em conclusões rasas a respeito das emoções. Sabia-se que as emoções existiam, porém não se sabia de onde elas vinham e para onde iam. Devido a inconsistência das respostas, para alguns bastou afirmar que não vinham de lugar algum – eram inatas ao homem – e, sendo assim, não poderiam ser forjadas ou transmitidas artificialmente. Yoshimi passou a vida inteira descordado dessas teorias e dizia em suas palestras estar bem próximo de desvendar as emoções.

*****

O Sr. Yoshimi acreditava estar a um passo de fazer um robô amar. Porém, hoje – com 57 anos (maior parte deles dedicado à sua pesquisa) e três resultados positivos nas ARIA – ele teve suas dúvidas. O problema talvez não estivesse nos sentimentos, mas nos motivos deles. Um sentimento criado, podia ser considerado um sentimento real? Tentar sentir anula o sentimento? É errado sentir quando se tenta dessa maneira? A verdadeira questão de Yoshimi era: é possível amar se você sabe o porquê de estar amando?

L.A. Fernandes.

Inspirado na canção One More Robot/Sympathy 3000-21 da banda The Flaming Lips