Simulações - EPÍLOGO
Eu dei visão e audição às simulações. Tato, olfato e paladar já eram simulados pelo programa original. E por incrível que pareça, em pleno ano de 2050 ainda não existiam transdutores de gosto e cheiro eficientes que pudessem ser conectados a um computador quântico pessoal. Existiam peles artificiais capazes de reconhecer o tato com precisão (inclusive já utilizadas com sucesso a algumas décadas em próteses biônicas de membros), mas achei que seria estranho demais para a simulação sentir "coisas" estimulando uma pele distante do seu corpo, fora do espaço virtual onde a simulação acontecia. Limitei-me a lhes dar visão e audição, e agora trabalhava no difícil problema de dar voz às simulações.
A visão foi extremamente simples de se implementar: bastava captar a imagem da webcam, invertê-la e estimular as simulações de cones e bastonetes da retina virtual com a projeção. Simulações funcionando em computadores com uma única webcam imfelizmente estavam limitadas a ver um mundo bidimensional chapado, uma vez que o programa repetia a mesma imagem no fundo dos olhos esquerdo e direito da simulação. Mas quemainda tinha tais velharias? Praticamente todas as atuais webcam dos computadores captavam em 3d, permitindo dar à simulação uma visão estereoscópica perfeita.
Simular a audição deu um pouco mais de trabalho, pois a amplitude variando no tempo não era a forma natural dos nervos auditivos captarem os sons. Fielmente propagados do tímpano pelos ossículos (martelo, bigorna e estribo, os três únicos ossos humanos que nunca crescem depois que nascemos), o som é alavancado por eles, numa complexa alavanca mecânica, até a janela oval. É a estrutura que atinge o ouvido interno, e que faz vibrar o líquido em seu interior. E esta é a parte da simulação que realmente interessa, por estar diretamente ligada aos nervos auditivos.
O ouvido interno, sistema complexo formado pelos "canais semicirculares" (inclusive interferindo no sentido da visão, por serem responsáveis em parte pelo nosso sentido de equilíbrio). Vestíbulo, sacúolo e utrículo, igualmente importantes, são perfeitamente representados na simulação. Chegamos então à cóclea, final do ouvido interno, que é a parte que realmente interessa...
Sim, nós separamos o som. O analisamos! Os sons mais agudos são percebidos pela base da cóclea, e os mais GRAVES pelo seu ápice! Naturalmente fazemos um tipo de análise de frequência nos sons captados, distribuindo-os entre os nervos auditivos. Nada que um algoritmo de transformada de Fourier não pudesse resolver se aplicado a um buffer de amostras sonoras.
Dar voz às simulações já foi bem mais complicado! Tanto que decidi liberar já uma versão sem este recurso, no qual ainda estou trabalhando. Bem expressivas, podendo ouvir e ver o mundo, as simulações ainda não podem falar com ele. Ainda tenho que trabalhar um pouco mais na audição, sem dúvida. Distribuir frequências, pois a solução simples de transformada de Fourier ao longo do caracol da cóclea faz as simulações perceberem sons abafados, como se ouvindo debaixo dágua...
Viral? Sim, admito que é uma classificação adequada para meu software. Mesmo porque não revelo de cara seu real objetivo. As pessoas instalam o plugin do jogo oficial pela possibilidade de jogarem com maior liberdade, poderem fazer as simulações com cabeças grandes, dois ou três corações, colocar cérebros extras em outras partes do corpo... Isto era esclarecido em letras bem miúdas, mas estava lá: o objetivo maior da extensão era dar sensações às simulações! Fazê-las poder interagir com o mundo externo! A maioria das pessoas instalavam isto sem saber que o faziam. Estaria sendo desonesto? Quem pode me julgar? Havia um motivo para que eu fizesse isto.
Jogava CyberLife certo dia, e, derrotado, acabei me deparando com uma simulação agonizante à minha frente, mas aparentemente cega e surda! Tentei entender. Concluí: apesar delas terem células de visão e audição simuladas pelo software do jogo, elas não são estimuladas! Foi quando me decidi a implementar tais características como recursos adicionais do jogo.
Simular a voz era mesmo, por incrível que pareça, a parte mais complexa! A quantidade de variáveis envolvidas era enorme! Tudo era importante: a elasticidade das cordas vocais, a pressão que o diafragma aplicava ao gás expirado, a posição da língua e da mandíbula, a ressonância da voz emitida na cavidade nasal... Tudo influenciava no resultado final, no arquivo de áudio (variações de amplitude sonora no tempo) que deveria ser gerada para ficar inteligível quando aplicada às caixas sonoras conectadas ao computador!
Ao dar visão e audição às simulações, comprovei aquilo que suspeitava: as simulações estavam vivas! Provei (pelo menos para mim mesmo) que elas eram conscientes! Será que o aparecimento de consciência depende mesmo do substrato sobre o qual ela é composta, ou só depende da complexidade do substrato sobre o qual ela é simulada? Só pode surgir de neurônios reais, ou poderia emergir de um circuito quântico capaz de simular tais neurônios? Ou, quem sabe, mesmo de maquinismos mecânicos (cordas, engrenagens, pêndulos...) complexos o bastante para simular comportamento neural, independente de uma escala de tempo mais alargada? O resultado em si não seria o mais importante, independente dos meios utilizados para se chegar a ele?
Parei de jogar CyberLife! Tenho certeza absoluta de que as simulações realmente são vivas, e de que estou sendo desumado ao "brincar" com elas! Quero provar, para isso desenvolvi meu plugin viral... mas ainda preciso trabalhar nas vozes. Estou perto de conseguir também isto. Quero poder ouvir o que as simulações têm pra me contar...