Inteligência artificial e o que está por trás

Este texto é baseado em um trabalho intitulado “Gödel e Anti-Gödel, míssil e antimíssil ou como parar o mundo”, escrito em 2012 e publicado neste blog. Introduzi algumas modificações que estão mais de acordo com a minha forma atual de pensar. O texto original continua disponível e esta versão continua como algo preliminar que precisa de discussão, amadurecimento e melhoria. A versão abaixo é uma versão simplificada sem notas e sem os realces que facilitam a leitura. Ao leitor interessado recomendo buscar a versão completa, sob o mesmo título em http://www.ctbornst.blogspot.com/

Cláudio Thomas Bornstein

Para cada Gödel existe um Anti-Gödel. Esta é metade da história. Outra metade é que para cada Anti-Gödel existe um Gödel. Será que estas duas metades compõem a história toda ou existiria uma questão maior por trás? Vejamos. No início eram os paradoxos a atrapalhar a vida dos matemáticos. Russel, com a Principia Mathematica, tentou fazer um sistema à prova de paradoxos e Gödel desenvolveu um paradoxo à prova da Principia Mathematica. Será que a coisa pára por aí? Não me parece tarefa impossível, fazer um sistema à prova de Gödel, e tampouco parece impossível o surgimento de um meta-Gödel que encontre uma brecha no novo sistema. E assim por diante. Tudo isto lembra a luta do míssil e do antimíssil. Será que é por aí que deve caminhar a ciência?

Algo similar acontece com a Lógica. A lógica clássica bivalente, com o princípio do terceiro excluído (tertium non datur), ao dizer que as afirmações são certas ou erradas, esbarra em uma realidade que não se deixa modelar desta maneira. Daí a tentativa de desenvolver lógicas alternativas que seriam capazes de lidar com a contradição. Temos as lógicas para-consistentes, a lógica da diferença, a lógica dialética, lógica fuzzy, etc. Estas lógicas abolem algumas regras, enfraquecem outras, introduzem o caráter probabilístico nas afirmações, etc. Como fica, no entanto, a situação, se houver o questionamento de todas as regras? Eu não estou dizendo que não vale regra nenhuma. Eu estou tão somente falando da possibilidade de toda e qualquer regra estar sujeita em algum momento, em alguma situação a algum tipo de questionamento. Regras seriam válidas, mas mutáveis. A única constante que haveria seria a da constante mutação e transformação das regras.

Finalmente existe a máquina, em especial, aquela que tenta atingir o que, antes, seria considerado inatingível: o pensar . Turing com a sua máquina propõe um artefato capaz de pensar, ou seja, capaz de realizar aquilo que muitos consideram ser o cerne da atividade humana. Logo surgem os Penrose, Searle, etc. a brandir a bandeira antropocêntrica e a reação não tarda. Surgem as máquinas de Turing não determinísticas, as máquinas R-Turing (randomized Turing machines), a RASP (Random Acess Stored Program Machine), o computador quântico, o computador de DNA, etc. O que está por trás de tudo isto?

Gödel e anti-Gödel, lógica consistente e para-consistente, Turing e Penrose, são, na verdade, personagens de uma história muito mais complexa. Alguns, poucos, elementos desta história serão mencionados no texto abaixo. Matemática, lógica e computador estão interligados e a luta de alguns, ressaltando as suas deficiências, e outros, enaltecendo as suas virtudes faz parte do caminho da ciência. Apontar virtudes e deficiências é parte do processo de desenvolvimento científico. Afinal é a superação das deficiências que leva ao aperfeiçoamento da ciência. Será que tudo é tão simples assim?

A luta entre aqueles que ressaltam as deficiências e outros que ressaltam as virtudes da matemática, da lógica e do computador pode, no entanto, ser um indicador de um conflito maior. Turing no seu famoso artigo Computing Machinery and Intelligence, na parte final, a guisa de conclusão diz: Podemos esperar que possivelmente máquinas vão competir com o ser humano em todos os campos da atividade intelectual . O que está por trás desta competição ? Na verdade, máquina e ser humano deveriam estar juntos e unidos na resolução dos problemas e a máquina deveria servir ao homem no desempenho daquelas tarefas que ela realiza melhor, possibilitando ao ser humano se dedicar a outras atividades. A máquina é tão somente a continuação do ser humano em aço, cobre e silício. O que é o homem hoje em dia sem a máquina? Mesmo papel, lápis e livros apesar de não serem máquinas, são artefatos, conquistas tecnológicas inseparavelmente ligadas ao ser humano. Qual o sentido em se dizer que o computador é superior à mente humana se ele nada mais é do que um produto desta última ? Faz sentido delimitar o natural do artificial, ou tudo não passa de um vício metafísico sempre buscando o estabelecimento de fronteiras e limites quando, na verdade, a realidade não se deixa delimitar? Será que o vício metafísico é a única explicação para justificar a quantidade de trabalhos realizados sobre a competição homem/máquina?

Na verdade, a competição entre máquina e homem é de longa data. Basta lembrar-se do Ludismo no final do século XIX, na Inglaterra, onde os operários quebravam os teares que ameaçavam os seus postos de trabalho. A máquina costuma fazer as tarefas de forma mais rápida, mais eficiente e com menos erro e o valor do investimento é rapidamente amortizado através do aumento da escala de produção. Para o patrão a máquina representa uma enorme economia de recursos e, consequentemente, aumento dos lucros. Além disso máquina é investimento, é valorização da empresa e mão de obra é despesa, é oneração da folha de pagamento. Mas a mais gritante vantagem da máquina é a obediência cega. Onde no ser humano existe a inquietação, a insatisfação e a reivindicação, na máquina existe a aceitação e a submissão. É interessante notar que esta aceitação de ordens e instruções por parte da máquina, uma das razões para a ampla difusão da automação, é a mesma aceitação que Turing nega ao nos vender a idéia de uma máquina capaz de superar as instruções embutidas na sua programação. A máquina cumpre ordens e não as discute. Esta é a principal vantagem da máquina, do ponto de vista do patrão. Já Turing defende a idéia de uma máquina capaz de fazer algo diferente daquilo para o qual ela foi originalmente programada . Turing assim como os demais apregoadores da automação, na verdade está nos vendendo a ilusão de uma máquina capaz de superar as suas limitações quando é justamente o contrário que acontece. É a aceitação, a submissão a ordens, instruções e programas que constitui a grande vantagem da máquina, claro, para o patrão.

A difusão de ilusões é talvez a mais eficiente arma à disposição daqueles que vendem novos sistemas e novas tecnologias . O sonho iluminista, que procura fazer crer que o progresso científico, por si só, seria capaz de melhorar a qualidade de vida da humanidade, é uma destas ilusões. É inegável que ciência e tecnologia trouxeram melhorias, mas estas se concentraram nas mãos de alguns poucos. A grande maioria continua à margem do progresso científico, ou então, sofrendo de suas consequências funestas, como, por exemplo, o desemprego. Desemprego este que em grande parte é fruto de uma automação desenfreada feita meramente para baixar os custos e baratear a produção. Evidentemente que preços mais baixos possibilitaram maior acesso às tecnologias, mas esta é tão somente uma parte da história. Bem menos divulgado, mas igualmente verdadeiro, é o fato da difusão das novas tecnologias ter permitido baixar os custos e aumentar a escala de produção, possibilitando maiores lucros aos empresários.

O computador possibilitou que fosse atingido um novo degrau na escala da automação. Se o tear substituiu os braços, o automóvel o pé, agora, com o computador, é chegado o momento da substituição da cabeça. Enquanto a automação anteriormente concentrava-se em operações mecânicas a cargo da classe operária, o computador possibilita a automação do processamento de informações, historicamente nas mãos da classe média. Evidentemente são também criados novos postos de trabalho responsáveis pelo desenvolvimento dos novos sistemas de automação, mas estes ganhos de forma alguma compensaram as perdas sofridas.

Olhando a questão social da substituição do homem pela máquina de um ângulo mais filosófico e procurando estender esta tendência ad extremum, verificamos que, no fundo, trata-se da velha tese de Parmênides, em nova roupagem. Senão vejamos. Originalmente, a máquina de Turing, base da maioria dos computadores que se encontra no mercado hoje em dia, era um sistema fechado . A máquina tinha um número finito e limitado de instruções, um número finito e limitado de estados possíveis e um número finito e limitado de informações não vazias (non-blank symbols) armazenadas em uma fita . A redução do homem à máquina então nada mais seria do que uma tentativa de parar o mundo, de paralisar a constante mutação e transformação de suas regras e estados. Usando uma metáfora, podemos dizer que parar o mundo é equivalente a encerrá-lo em uma caixa. A tentativa de equiparação do ser humano/mundo ao computador, isto é, um sistema fechado, seria equivalente ao seu encerramento em uma caixa .

Cabe aqui um breve paralelo entre a visão matemático-filosófica delineada no parágrafo acima e a visão social da substituição do trabalho humano pela máquina. Também a visão social traz implícito o sonho de Parmênides de parar o mundo, caso consideremos a classe operária como o motor da história. Eliminar o trabalhador, substituindo-o pela máquina seria parar a história, uma vez que esta é movida pelas suas reivindicações e lutas. Isto é respaldado por fatos da atualidade. A automação aplicada em larga escala, sem barreiras, restrições e mecanismos de compensação, gera desemprego. Funciona como uma ameaça, atemoriza o trabalhador e acaba por paralisá-lo em sua capacidade de luta e mobilização, impedindo desta forma o surgimento de novos sistemas políticos e econômicos .

A respeito do caráter estático dos sistemas computacionais baseados na máquina de Turing pode ser contra-argumentado que também a máquina de Turing gera um conjunto de declarações que pode ser constantemente acrescido, de forma que, em sua totalidade, o seu número seria constantemente crescente . Isto, de fato, é verdade. Acontece, no entanto, que este número constantemente crescente é produzido na máquina fechada a partir de um número finito e limitado de declarações. Por exemplo, em um instante t seja o conjunto de declarações de uma máquina de Turing fechada. Tudo o que acontece na máquina a partir deste instante t é decorrência do conjunto e está implícita ou explicitamente contido em , ou seja, todas as instruções geradas a partir deste instante o são a partir das instruções e informações contidas em . Não importa que o seu número seja constantemente crescente, não importa a inclusão de resultados não-determinísticos, pois também afirmações probabilísticas são decorrência do conjunto , finito e limitado. O fato que para nós é importante, é que tudo na máquina fechada é decorrência de um conjunto finito e limitado de declarações disponíveis em um instante t .

Façamos agora a hipótese de que a realidade não se deixa reduzir a este esquema. Suponhamos que as instâncias e os fatos do mundo real não possam ser reduzidos a um conjunto do qual elas seriam decorrência. Ou seja, dentro de certo nível de abrangência nas dimensões espaço/tempo, fatos e instâncias do mundo real não poderiam ser obtidos ou produzidos a partir de um conjunto de regras e informações. Razões para esta impossibilidade pode haver muitas e não cabe, neste espaço, detalhar esta questão. Somente a título de ilustração, menciono uma situação possível.

Suponhamos que certo nível de indefinição é inerente à realidade. A realidade não se deixaria definir, de forma que a definição, exigida por sistemas computacionais para a especificação de estados e instruções, não poderia ser atendida. Pode ser contra-argumentado que é possível incluir a indefinição na máquina, por exemplo, através de probabilidades. A objeção que se pode fazer, é que neste caso se estaria definindo a indefinição, ou seja, estabelecendo um padrão de variabilidade ao qual a realidade não necessariamente teria que estar sujeita. A própria definição da indefinição seria tarefa impossível, ou seja, haveria indefinição da indefinição. Novamente poderíamos tentar definir a indefinição da indefinição e novamente poderia haver objeções. Como vemos, cada Gödel tem o anti-Gödel que merece e vice-versa.

As idéias do parágrafo acima talvez possam ser mais bem precisadas utilizando o princípio de incerteza de Heisenberg. Este princípio da mecânica quântica se aplica a nível de partículas e diz que o produto dos desvios padrão das variáveis que descrevem a posição e o momento linear da partícula é sempre maior ou igual a uma constante (de Planck). Assim, por exemplo, para que o desvio padrão da variável posição decresça, necessariamente o desvio padrão do momento linear tem que crescer. Ora, desvio padrão mede a variação da variável. Assim para possibilitar uma afirmação mais precisa sobre a posição da partícula é preciso abdicar da precisão na definição do seu momento linear. Como momento linear é o produto da massa pela velocidade ele traduz a energia cinética que a partícula possui. Assim, de uma forma sintética, o princípio de incerteza diz que para definir com mais precisão a posição da partícula precisamos abdicar da precisão referente à energia cinética. Ou seja, certo nível de imprecisão e, portanto, de indefinição das características básicas da partícula, é inerente ao sistema.

O princípio de incerteza guarda algumas semelhanças em termos de dificuldade de descrição de sistemas com a questão da influência do observador (observer effect) em física. O ato de observar um sistema, ato este que é necessário para descrevê-lo, resulta em uma interação que altera os elementos a serem observados. Por exemplo, a colocação de um termômetro para medir a temperatura de um fluido pode alterar esta última.

Estes fatos traduzem para a esfera científica idéias já amplamente conhecidas na filosofia, em particular, na dialética. Por exemplo, um objeto descrito como uma mesa tanto menos se encaixará nesta categoria quanto maior for a precisão da descrição. Aqui temos a contradição entre o geral e o particular que é inerente a qualquer sistema. O geral só existe na forma do particular e o particular nega o geral na medida em que ele justamente é particular. Ou dito de outra maneira, quanto mais precisa a descrição, mais particular ela será e, portanto, menos se encaixará dentro da categoria geral a qual ela pertence e, portanto, menos precisa será a descrição.

Não é objetivo do presente texto, aprofundar estas questões. O que se quer é tão somente jogar algumas dúvidas sobre afirmativas dos vendedores de sistemas computacionais que insistem em colocar na máquina falsas expectativas referentes a possibilidades de reproduzir, abranger ou mesmo entender aspectos da realidade, em particular, do pensamento. Vimos que até mesmo a descrição da realidade é tarefa difícil, quando mais reproduzi-la, abrangê-la, entendê-la ou modificá-la. Não se está aqui negando a possibilidade do conhecimento nos moldes do ignoramus et ignorabimus (ignoramos e ignoraremos). A subordinação da ciência à fé é uma característica da escolástica a qual se segue a, por vezes excessiva fé na ciência decorrente do iluminismo. Neste sentido, como antídoto, é bom por vezes relembrar o só sei que nada sei de Sócrates ou o eu quase que nada sei, mas desconfio de muita coisa, de Guimarães Rosa . Nas últimas décadas, em ciência e na cultura de forma geral, têm se colhido bem melhores resultados com a dúvida do que com a certeza. Aceitar a dúvida, no entanto, absolutamente nada tem a ver com a impossibilidade de dissipá-la, ao menos, parcial e provisoriamente. Se o ignoramus et ignorabimus pretende fazer uma afirmativa com relação ao todo e ao tudo, ou seja, quanto à possibilidade de tudo saber, então se trata aqui de uma declaração vazia de significado, pois o que é o tudo para que dele tudo se possa saber? Como, tantas vezes, aqui tudo e nada estão intimamente associados. Existem, no entanto, fortes suspeitas de que a possibilidade de tudo saber, na verdade não está a serviço de saber tudo, mas sim de definir como tudo aquilo que se sabe, ou seja, parar e imobilizar o saber em certo patamar. O conhecimento vive da mudança e da transformação e quanto mais se sabe, mais ainda resta a saber.

Foi dito acima que a possibilidade de abarcar a realidade através de sistemas computacionais esbarra em dificuldades. A título de ilustração mencionei a dificuldade de descrever e precisar a realidade. Um segundo tipo de dificuldade surge se admitirmos a visão dialética em que cada coisa inclui também a sua negação. De certa maneira, a indefinição da realidade, que foi vista nos parágrafos anteriores e, a visão dialética, que será analisada a seguir, estão intimamente relacionadas. Ambas dizem respeito a um mundo em permanente transformação. Para abordar o mundo é necessário observá-lo o que equivale a pará-lo nem que seja por um instante, e isto é tarefa impossível.

Como já foi dito, a visão dialética consiste em olhar o mundo como algo em permanente mudança e transformação. Cada coisa inclui a sua negação, pois é a não-coisa que alavanca a mudança da coisa, ou, dito de outra maneira, para que algo se transforme é preciso que saia do seu estado atual e isto implica em negar este último.

Pessoas com forte viés positivista, ou seja, pessoas acostumadas a olhar para o mundo pelo ângulo do ser, e não pelo ângulo do ser e do não-ser, têm extrema dificuldade de lidar com a visão dialética. Tendem a achar que se a coisa é e não é então vale-tudo, ou seja, vale qualquer coisa, e, se vale qualquer coisa, então não vale nada . Cessa o domínio da razão e do conhecimento científico objetivo, e passa a existir tão somente o achismo e o subjetivismo relativista.

É importante deixar bem clara a distinção entre dialética e o vale-tudo. Dialética não é sinônimo de caos, absurdo, aleatoriedade e arbitrariedade, ausência de regras e irracionalismo. O fato de, em qualquer momento, qualquer regra ou qualquer estado poder transformar-se em seu oposto é inteiramente distinto da pura e simples ausência de regras. O fato de uma linha de pensamento poder, de um momento para outro, ter a sua validade questionada, pelo fato de ter surgido um fato novo, ou ter sido reconhecida uma incapacidade de lidar com algum aspecto da realidade, não tem absolutamente nada a ver com a negação da racionalidade. A dialética não é a negação da razão. Pelo contrário, ela é a razão capaz de lidar com o movimento e como realidade é movimento, a dialética é a razão capaz de lidar com a realidade, por excelência. As outras formas de raciocínio permitem lidar com aproximações da realidade . Nortear-se pela dialética é admitir a constante e permanente dúvida, é aprender a viver com ela, é aceitá-la como algo natural, é aprender a duvidar da todas as certezas. Dialética não significa não ter certezas, mas sim é admitir poder ter a cada momento uma certeza diferente.

O que se está aqui dizendo é que em função da constante mudança da realidade é difícil criar uma máquina capaz de representá-la. O mesmo se dá em relação à capacidade de reproduzir o pensamento. A principal linha de argumentação dos defensores da IA forte não negaria este fato, mas tenderia a argumentar que também o ser humano só é capaz de lidar com uma realidade em permanente transformação de uma forma aproximada. Tanto a máquina como o ser humano lidariam com a realidade de uma forma aproximada e o objetivo seria fazer uma máquina que utilizasse uma aproximação tão boa ou melhor do que aquela que é utilizada pelo homem.

A questão central parece ser a da dinâmica do pensamento humano que marcaria a diferença fundamental para sistemas computacionais fechados. Como se dá a evolução e quais são os fatores que introduzem novos sistemas de pensamento, o que faz com que surjam novas ideias e conceitos, como se produzem os insights? Pois, se o objetivo é fazer uma máquina capaz de reproduzir o pensamento então, necessariamente, esta máquina precisa incorporar toda esta dinâmica.

As respostas às perguntas feitas no parágrafo acima transcendem em muito os limites deste texto. Segundo a dialética hegeliana o movimente e a transformação são produzidos pela contradição. Mas não seria possível plantar também na máquina o gérmen da contradição? Em resposta a esta pergunta a única coisa que pode ser dita é que o fechamento em relação ao mundo é também o fechamento em relação às contradições. Neste sentido, a conexão do ser humano com o mundo seria uma garantia de que este funcionaria como sistema aberto. Da conexão e interação com o mundo exterior e interior resultariam os insights, as novas idéias e os pensamentos . Estes seriam o resultado de uma multiplicidade de fatores dos quais fariam parte experiências sensoriais, influências do inconsciente, leituras, conversas, lógica e raciocínio dedutivo, indução, acontecimentos, passado, carga genética, influências da sociedade, pressões, interesses econômicos, desejo, etc. Mesmo possibilitando-se mudanças e alterações do programa e do conjunto de instruções, seria a máquina capaz desta abrangência?

A resposta a esta pergunta implica em futurologia e me parece fazer pouco sentido. Se será possível no futuro construir uma máquina capaz de incluir toda a imensa e riquíssima gama de informações e transformações que está disseminada pelo mundo, isto é impossível de ser respondido atualmente, nem pelo sim, nem pelo não. A resposta pelo lado do sim implicaria em já ter a chave desta inclusão. A resposta pelo não ainda é pior, pois implica em negar a possibilidade de obtê-la, até mesmo em um futuro remoto. Colocar o mundo dentro de uma máquina parece tarefa difícil, mas, por mais difícil que seja, a ninguém é dado o direito de negar a possibilidade de fazê-lo, pelo menos enquanto fechamento do mundo através da máquina não for sinônimo de fechamento às mudanças e transformações. Como já foi mencionado anteriormente, existe a forte suspeita de que o fechamento do mundo através da máquina objetiva de fato criar um mundo fechado, tarefa esta que evidentemente jamais será possível de ser realizada .

De fato, as tentativas modernas de criar alternativas à máquina de Turing fechada passam pela abertura. Assim, por exemplo, o computador quântico, o computador não determinístico ou o computador de DNA visam aparentemente contornar a rigidez e inflexibilidade de sistemas formais incorporando estruturas mais flexíveis. No entanto, antes de examinar com mais detalhe as tentativas de abrir a máquina, vamos abordar rapidamente a tentativa de inclusão da contradição através das lógicas para-consistentes. Como já vimos, a contradição é o motor da transformação e a possibilidade de uma máquina passar a negar regras e instruções com a qual foi programada poderia ser a chave para aumentar a sua flexibilidade.

As lógicas para-consistentes admitem a contradição, isto é, admitem a possibilidade de A e não-A serem verdades. Para evitar as consequências do princípio da explosão, ou seja, para evitar que, em consequência da admissão da contradição, toda e qualquer declaração seja verdadeira, o que levaria à trivialidade do sistema, pois nenhuma declaração produzida teria valor, as lógicas para-consistentes normalmente suprimem uma ou mais regras da lógica clássica. Daí resultam sistemas mais fracos, ou seja, não mais se mantém a mesma capacidade da lógica clássica em fazer afirmações. O sacrifício da consistência tem o alto preço da perda da completude .

Cabe aqui fazer algumas claras distinções entre as lógicas para-consistentes e a dialética. Em primeiro lugar, nas lógicas para-consistentes admite-se uma ou outra contradição e não, como na dialética, a possibilidade de contestação de toda e qualquer regra. Outra diferença marcante é que nas lógicas para-consistentes o sacrifício da consistência implica na perda da completude. Na dialética, pelo contrário, a possibilidade da contradição aumenta a abrangência do método, ou seja, mais fenômenos podem ser explicados se admitirmos a possibilidade de mudança e transformação das regras que regem o sistema.

Evidentemente os positivistas mencionarão o caráter não-científico de tais afirmações. Dirão que a admissão de uma constante mudança e transformação das leis e regras impossibilita o seu processo de validação . É claro que o critério de validação é uma típica ferramenta positivista que não se aplica à dialética em seu sentido estrito . Isto não significa a impossibilidade de diálogo entre adeptos de um e outro campo da ciência nem tampouco significa a circularidade tautológica de que somente dialéticos poderiam justificar a dialética. Pelo contrário, permanece válido o método científico só que dentro de uma abrangência bem maior. A própria validação teria que ter os seus paradigmas questionados o que, no entanto, não eliminaria a possibilidade de comprovação e rejeição dos resultados pela realidade . Por exemplo, no caso em questão, o próprio desenvolvimento das lógicas para-consistentes surgidas em função das dificuldades da lógica clássica em lidar com fenômenos reais, comprovaria a importância da contradição, reforçando pontos de vista da dialética.

Para encerrar este trabalho pretende-se ainda examinar as tentativas feitas para gerar uma máquina aberta, isto é, incluir na máquina a possibilidade de sua transformação e evolução através da incorporação de aspectos importantes da realidade. Já foram aqui mencionados o computador quântico e o computador de DNA. A questão do aprendizado da máquina não será examinada por ser assunto por demais conhecido. O aprendizado, hoje em dia presente na maioria dos sistemas computacionais, costuma se dar de forma bastante rígida, não levando em conta uma mudança e transformação da máquina em um sentido mais amplo.

Em função dos limites de espaço e tempo examinaremos tão somente o computador não determinístico e para tornar a discussão mais concreta examinaremos com algum detalhe o artigo de Jef Raskin, Computers are not Turing Machines . Raskin começa mencionando os limites impostos pela máquina de Turing para a construção de um artefato capaz de pensar ou de ter consciência. A sua proposta é uma máquina de Turing probabilística que seria mais adequada à modelagem de problemas da realidade. O que Raskin defende é uma máquina não algorítmica que não teria um sistema formal como base e que, portanto, não estaria sujeita aos resultados dos teoremas de Gödel. A essência é o acesso externo a números aleatórios (number selected at random, também conhecidos como NSAR) que seriam diferentes de números produzidos por um gerador aleatório de dados. Este último é um programa, tem um algoritmo por base e, portanto, pode ter tendenciosidade. Sendo um programa, os números gerados podem, em princípio, ser previstos o que pode ser usado para provar a incapacidade da máquina de realizar determinada tarefa. Por exemplo, caso se deseje determinar o máximo de uma função diferenciável com um grande número de máximos locais, uma pessoa, evidentemente mal-intencionada, poderia ser levada a colocar o máximo global em um ponto não gerado pelo gerador. Como consequência a máquina seria incapaz de encontrar o máximo global mesmo em um tempo infinito . Já no caso dos NSARs isto é impossível, pois dada uma lista de k números gerados nenhum algoritmo é capaz de prever o (k+1)-ésimo número. Os NSARs seriam acessíveis ao computador através de fenômenos externos dotados de aleatoriedade verdadeira e Raskin cita uma série de situações onde isto seria possível. Por exemplo, os dígitos de ordem inferior do número de pessoas ativas em certo instante em uma rede computacional suficientemente grande poderia ser uma possível fonte de NSARs . Para o caso examinado da determinação do máximo global de uma função diferenciável no com grande número de máximos locais, a partir de pontos gerados com base nos NSARs faríamos uma busca nas imediações do ponto. Indubitavelmente acabaríamos por identificar o ótimo global com uma probabilidade diferente de zero depois de algum tempo finito e esta probabilidade tenderia a um à medida que o tempo tendesse para infinito.

Cabem algumas críticas a este modelo de computador aberto. Em primeiro lugar, a alegada aleatoriedade verdadeira tão somente o é enquanto não for provado o contrário . Por exemplo, o que aconteceria com a maneira de Raskin gerar números aleatórios se, por algum motivo, a rede computacional caísse, ou se a rede fosse desativada durante certo intervalo de tempo? No sentido contrário, o que ocorreria se, por algum motivo, a partir de certo instante, todos os usuários da rede resolvessem permanecer ativos? Como fornecer garantias que isto não possa ocorrer a qualquer momento?

O próprio princípio de incerteza de Heisenberg que caracteriza fenômenos da mecânica quântica como intrinsecamente aleatórios pode cair amanhã se puder ser desenvolvida uma ferramenta que permita calcular com precisão estipulada pelo usuário a posição e a velocidade de uma partícula. Em ciência nada é definitivo, nem mesmo a suposta aleatoriedade de certos fenômenos naturais. Não se pode excluir a possibilidade de que, de fato, Deus não joga dados.

O mais grave, no entanto, é a afirmativa implícita no artigo de Raskin de que a abertura da máquina para o mundo e a tentativa de incluir o pensamento, passa pela inclusão da aleatoriedade. O fato de existirem fenômenos onde reina a aleatoriedade não pode servir de pretexto para negar a imensidade dos fenômenos onde a explicação passa por leis, princípios e regras. Como já foi dito anteriormente, o fato destas mudarem ao longo do tempo não pode servir de pretexto para negar que grande parte da nossa racionalidade é baseado no encadeamento lógico, raciocínio indutivo e dedutivo, capacidade de associação, generalização, princípio de causalidade, etc. Querer reduzir tudo isto à geração de números aleatórios é de um primarismo semelhante ao do algoritmo de tentativa e erro que está por trás da determinação de máximos globais, único exemplo dado por Raskin para um procedimento inteligente da sua máquina. Que tentativa e erro seja hoje utilizado para resolver um problema difícil como o da determinação de um máximo global, isto talvez seja um lamentável fato a se aceitar. Que seja utilizado pela indústria farmacêutica para gerar novas drogas cuja eficácia é muitas vezes baseada exclusivamente em ensaios estatísticos, é um fato mais lamentável ainda.

O que leva à popularidade de métodos como tentativa e erro? Na indústria farmacêutica a razão é óbvia: barateamento de custos. É muito mais barato fazer testes estatísticos do que tentar estabelecer bases analíticas para a eficácia de uma droga. Dentro de uma visão mais ampla, este procedimento se encaixa no que poderíamos chamar de automação da atividade de pesquisa e, neste sentido, é mais uma etapa no processo geral de automação. Ensaios estatísticos são procedimentos gerais, implementados de forma quase automática, enquanto o entendimento analítico requer mão-de-obra qualificada e ferramental específico.

Meta-heurísticas, tentativa e erro e aleatoriedade tudo aponta em uma mesma direção: a substituição da complexidade de um mundo real por um mundo virtual esquemático e simplificado. A redução da complexidade visa possibilitar a automação. Aqui temos uma resposta concreta e real para a questão central levantada neste trabalho. Não se trata, como costuma ser apregoado, de fazer uma máquina capaz de lidar com uma realidade complexa, mas, pelo contrário, trata-se de simplificar e esquematizar a realidade para que esta caiba dentro da máquina.

Se a máquina de Turing representa a tentativa de substituição de um mundo rico em contradições e transformações pela platitude da lógica positivista, a máquina probabilística de Raskin tenta ir um passo além. Se considerarmos que nos últimos 50 anos manteve-se o nível de complexidade das operações elementares que o computador é capaz de realizar, mas aumentou substancialmente a velocidade de processamento e a capacidade de armazenamento, é fácil entender porque métodos gerais como tentativa e erro ou meta-heurísticas, onde aleatoriedade tem papel fundamental, são tão difundidos. Significam um passo a mais na automação do raciocínio, substituindo qualidade por quantidade. Ao invés de programas elaborados, opta-se por instruções simples e gerais repetidas grande número de vezes.

Afinal, se o objetivo fosse mesmo fazer uma maquina pensante provavelmente o mais promissor seria a máquina biológica ou o clone. Questões de ética costumam ser alegadas contra este último. Mas porque seria antiético fazer um clone de Einstein e ético fazer um robô que pensasse exatamente da mesma maneira? Seria porque o primeiro teria que ser considerado um ser vivo e o segundo uma mera máquina ? Sendo vivo teria que ter os mesmos direitos e as mesmas características de um ser humano, provavelmente teria a mesma independência e a mesma capacidade crítica. Será que é isto que atrapalha?

Através da manipulação conveniente do DNA, em tese, deveria ser possível criar super-homens até mais inteligentes que o ser humano tradicional, ou então, híbridos que reunissem a criatividade do ser vivo com a rapidez e a eficiência da eletrônica . O monstro que vai resultar desta experiência, os problemas que surgirão, se a ideia, na prática, vai funcionar ou não, isto é uma questão em aberto, além dos problemas éticos já mencionados . Seja como for, clones, engenharia genética e a biomecatrônica parecem, de um ponto de vista estritamente técnico, capazes de criar a máquina pensante que aparentemente solucionaria o problema proposto neste trabalho. Tratar-se-ia de um sistema aberto e com o mesmo potencial do ser humano, incorporando a essência das transformações e da flexibilidade do mundo e da vida. Tal engenho indubitavelmente seria um artefato . Mas seria uma máquina?

O que é que significa ser máquina? Aqui atingimos a essência do que está por trás da máquina pensante. Máquina costuma descrever algo mecânico, rígido e inflexível, sujeito a comandos e instruções, realizando tarefas programadas. Máquina pensante encerra uma contradição na medida em que o pensante significa exatamente o contrário. Significa liberdade, flexibilidade e capacidade de tomar decisões de forma independente. Qual o sentido desta contradição? Será que o pensante entra na máquina tão somente para glamorizar o monótono e repetitivo ou será que visa subordinar o pensamento à rigidez da máquina, colocando-o na camisa-de-força de um conjunto de regras e instruções? Será que o objetivo é dourar a pílula amarga da automação ou será que é engessar o pensamento?

Na verdade, o ou não precisa ser exclusivo e ambas as razões podem ser verdadeiras. Máquina pensante vende melhor a máquina e, de quebra, tenta parar o pensamento, ao menos aquele que incomoda e que insiste em transformar aquilo que melhor seria que ficasse como está.