Inteligência Artificial Simbólica e Conexionista

03/04/2023 16:26

por Eduardo Barros Mariutti

O sistema-mundo moderno tem como uma de suas principais características o entrecruzamento entre a rivalidade interestatal e a concorrência intercapitalista. As pressões competitivas que quem emanam do capital e da rivalidade estratégica favorecem uma postura pragmática por parte dos atores: é muito comum realizar tarefas e desenvolver produtos sem que se compreenda exatamente como eles funcionam. Basta que, de um ponto de vista instrumental, a engenhoca ou o procedimento funcione. A explicação racional e científica fica para depois. Paul Cilliers(Complexity & Postmodernism) desenvolve com maestria essa ideia ao destacar que manipulamos genes (gene splicing) sem entender plenamente como eles interagem, assim como a indústria farmacêutica produz fármacos sem dominar com clareza o modo como eles funcionam e quais são seus efeitos colaterais. Isso para não falar de um exemplo clássico: as máquinas a vapor foram construídas por homens práticos e só muito tempo depois surgiu a termodinâmica que, como se sabe, transformou radicalmente a física teórica (Manuel De Landa, War in the age of intelligent Machines).

Com a inteligência artificial (IA) isto não é diferente. Para simplificar, podemos dizer que este ramo é baseado na disputa entre duas grandes tradições: a simbólica e a conexionista. A primeira é a mais antiga e opera com a noção de que inteligência é a capacidade de manipular símbolos que representam o mundo e as diversas experiências fenomenológicas que vivenciamos. Esta manipulação se concretiza por meio de inferências lógicas derivadas de um conjunto de regras formais que delimitam o que é e o que não é permissível. Há aqui pelo menos dois pressupostos: i) a inteligência humana é simbólica (opera por representações em um jogo formal de signos, significantes e significados); ii) é necessário distinguir sintaxe de semântica. No primeiro caso, a automação não encontra muitas dificuldades, exatamente por envolver regras formalizadas. O desafio para as máquinas “inteligentes” está na semântica que, para os humanistas mais radicais, é uma barreira intransponível: elas jamais poderiam ter uma compreensão genuinamente subjetiva e sensorial do que os símbolos significam para um humano.

Embora seus primórdios já possam ser identificados na teoria matemática da informação de Claude Shannon (1948) e nos estudos sobre a neuroplasticidade associados a Donald Hebb (1949), a tradição conexionista ganha contornos mais definidos no final da década de 1960, em uma época em que a memória e a capacidade de processamento dos computadores eram insuficientes para testar os seus modelos e gerar aplicações práticas. A ideia básica desta vertente é que o que chamamos de inteligência não envolve representações do mundo por signos que obedecema um conjunto de regras lógicasmas um sistema de aprendizado por estímulos e exemplos assimiláveis por redes neurais que produzem um sistema de cognição distribuída capaz de se auto-organizar. As partes tomadas isoladamente não importam. O que produz as classificações – e, portanto, o comportamento inteligente – é o conjunto da rede: interpretações e operações complexas emergem da interação entre unidades simples de processamento (binárias) que respondem de forma não-linear às informações que recebem do conjunto. Logo, a rede é capaz de conter muito mais informação do que a simples soma dos seus componentes e, por conta disto, a totalidade das informações cognitivas ela nunca pode ser concentrada ou centralizada em uma região ou instância particular (o pesadelo do burocrata).

A IA conexionista começou a ganhar proeminência na década de 1980, em sinergia com o surgimento de computadores com memória e capacidade de processamento capaz de simular operações e gerar aplicações práticas deste modelo. Hoje há uma clara preponderância da IA conexionista sobre a simbólica. Além das exigências de hardware, este tipo de IA depende de datasets gigantescos, só acessíveis aos países centrais e às grandes corporações. Há, além dessa assimetria, um problema ainda mais candente: depois que as redes neurais são adequadamente calibradas, elas passam a operar de forma acelerada e opaca, alimentando discursos tecnofóbicos que, embora muito populares, tendem a ser ignorados pelos Estados centrais e pelas grandes corporações. Não existe nenhum complô ou algo do gênero. A opacidade e a imprevisibilidade da tecnologia de ponta aplicada não são frutos de caprichos de burocratas ou empresários: nunca se sabe que direção específica uma onda tecnológica emergente pode tomar. Quem está efetivamente na disputa pela primazia tecnológica opera sempre em águas ainda não plenamente cartografadas e, sobretudo, aposta em todos os cavalos que puder, pois a penalização pelo atraso costuma ser devastadora.

Eduardo Barros Mariutti – Professor do Instituto de Economia da Unicamp, do Programa de Pós-Graduação em Relações Internacionais San Tiago Dantas da UNESP, UNICAMP e PUC-SP e membro da rede de pesquisa PAET&D.

Texto publicado originalmente em: Observatório de Geopolítica do Jornal GGN: Inteligência Artificial Simbólica e Conexionista (jornalggn.com.br)