Post on 01-Jul-2015
1
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULOPrograma de Pós-Graduação em Comunicação e Semiótica
ARTIGO CIENTÍFICO
INTELIGÊNCIA ARTIFICIAL E AS CIÊNCIAS COGNITIVAS
Sílvio César da SilvaOrientador: Prof. Dr. Eugênio Trivinho
2006
2
SÍLVIO CÉSAR DA SILVA
INTELIGÊNCIA ARTIFICIAL E AS CIÊNCIAS COGNITIVAS
Artigo Científico apresentado ao Programa de Estudos de Pós-Graduação em Comunicação e Semiótica como instrumento de avaliação para a disciplina de Ciências Cognitivas ministrada pela Profª. Drª. Christine Greiner.
Área da Concentração: Signo e Significação nas Mídias
Linha de Pesquisa: Sistemas Semióticos em Ambientes Midiáticos
São Paulo2006
3
Inteligência Artificial e as Ciências Cognitivas
ResumoO escopo do presente artigo é discutir a influência das Ciências Cognitivas no desenvolvimento da inteligência artificial através da criação de redes neurais e do estudo da inteligência natural e não-natural que no cérebro humano corresponderá ao hardware computacional, e padrões de pensamento ou solução de estados mentais que poderão ser descritos de forma totalmente independente da constituição específica do sistema nervoso humano. Tais noções esclareceram as implicações epistemológicas das várias demonstrações da Inteligência Artificial.
AbstractThe target of the present paper is to argue the influence of Cognitive Sciences in the development of artificial intelligence through the creation of neural nets and of the study of the natural and not-natural intelligence that in the human brain will correspond to the computational hardware, and standards of thought or solution of mental states that could be described of total independent form of the specific constitution of the human nervous system. Such slight knowledge had clarified the epistemologist implications of the some demonstrations of Artificial Intelligence.
Palavras-chaves: Inteligência Artificial, Ciências Cognitivas, Sociedade da Mente
Key-words: Artificial Intelligence, Cognitive Sciences, Society of the Mind
4
Em meados da década de 50 veremos, através do esforço de vários campos
associados e, principalmente, devido à invenção e disseminação do computador, o
aparecimento da ciência cognitiva, que possibilitará a volta a algumas das questões
clássicas da filosofia e também a conceitualização dos processos mentais de formas novas e
frutíferas. A ciência cognitiva pode ser definida como “um esforço contemporâneo, com
fundamentação empírica, para responder questões epistemológicas de longa data,
principalmente aquelas relativas à natureza do conhecimento, seus componentes, origens,
desenvolvimento e emprego” (Gardner, 1985, p.19).
Essa “nova ciência da mente” será fundada na crença de que é legítimo postular um
nível de análise separado, que pode ser chamado “nível da representação”, necessário para
explicar a variedade do comportamento, da ação e do pensamento humano (idem). Dessa
forma, a atividade cognitiva humana será descrita em termos de símbolos, esquemas,
imagens, idéias, e outras formas de representações mentais.
Durante esse período otimista de formação, a analogia com o sistema humano e os
processos humanos de pensamento foi evidente. O computador, além de funcionar como
uma ferramenta valiosa de trabalho passa a servir como um modelo do pensamento humano
(idem). Tudo isso à luz das idéias, vindas da filosofia clássica, de que a mente é, em alguns
aspectos, semelhantes a uma máquina, de que ela opera sobre o conhecimento codificando
em alguma linguagem interna, e que o pensamento pode ser usado para escolher as ações
que deverão ser executadas. Essas idéias tornam possível a criação da Inteligência Artificial
(IA), a partir da contribuição de áreas como a filosofia, matemática, economia e psicologia,
que terá como objetivo, além de tentar compreender como pensamos, tentar construir
entidades inteligentes (Russell & Norvig, 2003).
O cérebro humano corresponderá ao hardware computacional, e padrões de
pensamento ou solução de problemas (estados mentais) poderão ser descritos de forma
totalmente independente da constituição específica do sistema nervoso humano. Tais
noções esclareceram as implicações epistemológicas das várias demonstrações da IA
(Gardner, 1985).
5
A IA desde sua criação nos anos 50, bem como da ciência cognitiva, terá uma
história de sucesso, otimismo impróprio e, logo após, quedas no entusiasmo e em seu
incentivo financeiro. Também haverá ciclos de introdução de novas abordagens e
aprimoramento, e chegará à década de 1970, marcada pela mudança dos sistemas de
conhecimento generalistas para os especialistas para a compreensão da linguagem e outros
domínios cognitivos (Gardner, 1985). O enorme crescimento das aplicações para a
resolução de problemas reais causou um aumento simultâneo na demanda por esquemas
utilizáveis de representação do conhecimento, seja ele codificado como um conjunto de
fatos ou declarações armazenadas, ou codificado como um conjunto de procedimentos ou
ações a serem executadas (Gardner, 1985; Russell & Norvig, 2003).
Esses esquemas seriam estruturas para representar o conhecimento, nas mentes ou
nas máquinas, abrangendo uma série de conceitos que se inter-relacionam em uma
organização significativa. Os conceitos seriam as unidades fundamentais do conhecimento
simbólico.
Dada a sua concepção funcionalista do mental, segundo a qual o fato de um sistema
físico ter mente consiste na realização por esse sistema físico de uma determinada
organização funcional, Dennett considera que não existe nenhuma diferença essencial entre
a inteligência natural e a inteligência artificial. O campo disciplinar da IA pode por isso
servir como fonte de vários esclarecimentos em filosofia da mente e as experimentações
possíveis em IA via a criação de programas e robôs devem ser consideradas como
contribuições importantes para a compreensão das mentes naturais.
Pondo em prática esta convicção, Dennett tem-se servido ao longo da sua obra de
exemplos de criações da IA para desafiar e ilustrar pontos na teoria da mente. Já o fez com
o General Problem Solver de Newell, Simon e Shaw (um programa capaz do tipo de
raciocínio heurístico chamado análise meios/fins) nos anos 60, continua hoje a fazê-lo com
os robôs móveis autônomos de Rodney Brooks capazes de comportamentos cognitivos no
mundo e mesmo de estratégias de cooperação em grupo, e finalmente, mantendo uma
proximidade prática com o campo, através da sua participação como "filósofo residente" no
6
projeto da criação de Cog, o robot humanóide do Laboratório de Inteligência Artificial do
MIT, dirigido por Rodney Brooks.
Estes programas e robôs são para Dennett experiências mentais reais ou realizadas,
mesmo se são experimentações sobre o "mental-possível" que não simulam ou explicam
imediatamente o "mental-natural". São experiências mentais no duplo sentido de partirem
da imaginação sobre o que poderia acontecer em determinadas circunstâncias e de serem
acerca a mente, e são reais na medida em que conduzem à criação de programas e
máquinas, uma vez que a IA é um campo afim da engenharia.
Mas a IA é para Dennett mais do que uma fonte de exemplos e experiências
mentais. Dennett entende a IA como uma maneira de fazer filosofia, mesmo se não é isso
que estes cientistas pensam que estão a fazer. Essa atividade, fazer filosofia, é entendida
por Dennett à maneira de Kant como uma investigação das condições de possibilidade da
cognição em geral. Isto quer dizer que a epistemologia pura dos filósofos é para Dennett
apenas o caso limite num continuum que envolve também as criações da IA. As questões da
filosofia e da IA são identicamente abstratas e gerais e visam a emergência no mundo físico
de percepção, ação, inteligência e consciência. A IA partilha ainda com a filosofia o
método das experiências mentais. Aliás, segundo Dennett, os métodos da IA são um paraíso
para filósofos, precisamente porque todo o campo consiste em experiências mentais. Esta
afirmação parece falhar o alvo em relação a um domínio de engenharia, no entanto aquilo
que Dennett pretende pôr em relevo é o possível desprendimento da questão do mental em
relação ao mental biologicamente baseado atual: este não tem privilégios por princípio, ou
só os teria como conseqüência de um essencialismo acerca das origens que para Dennett é
indefensável. Os fenômenos mentais biologicamente baseados e atuais situam-se por isso
conjuntamente com outras formas possíveis de mentes num mesmo espaço do design.
Mas estas experiências mentais da IA têm uma vantagem em relação às da filosofia
pura: como são experiências mentais controladas via "próteses" (os computadores) as
hipóteses podem ser refutadas em concreto, no sentido próprio daquilo que acontece numa
experimentação, enquanto que nas experiências mentais dos filósofos nada pode nunca
correr mal, pois não existindo o constrangimento que representa o fato de se ter que
7
construir o modelo que se imagina, não há lugar para as surpresas com que se aprende. A
Inteligência Artificial e Vida Artificial têm, na sua maneira de colocar a questão de Kant,
uma vantagem não apenas em relação à filosofia pura mas também em relação às
investigações cognitivas a que Dennett chama "abstêmias", por exemplo aquelas que são
estritamente neurobiológicas e procedem "neurônio a neurônio". Essa vantagem é a
seguinte: é mais fácil deduzir competências comportamentais dos mecanismos que se
construiu do que elaborar hipóteses acerca de mecanismos internos de caixas negras cujo
comportamento se observou (o que é a posição do cientista "abstêmio", por exemplo do
neurocientista, por comparação com o teórico da IA).
Este louvor das vantagens da passagem à ação que a tentativa de constituição de
uma IA representa por contraposição à investigação de uma inteligência "natural" tem
ligações com uma idéia diretriz de Dennett quanto à investigação da mente: para Dennett as
Ciências Cognitivas enquanto ciências da inteligência "natural" ganharão se se assumirem
como uma prática de Engenharia Invertida (reverse engineering).
Segundo Dennett, as ciências cognitivas, enquanto ciências da mente-cérebro,
investigam soluções de design biológico, soluções já realizadas e freqüentemente
imperfeitas, muito distantes da melhor solução possível, inclusive porque partem da
necessidade de aproveitar o material pré-existente na evolução biológica, nunca partindo
obviamente do zero. Ao sublinhar esta imperfeição e oportunismo das soluções biológicas
de design, Dennett pretende combater aquele que considera ser um defeito característico de
filósofos e outros cientistas cognitivos, a tendência a considerar que, em relação ao estudo
da mente e na exclusão do dualismo, restam a física e a matemática, ocultando a
perspectiva teoricamente menos pura da biologia-como-engenharia (e por isso parente da
IA...) como chave para o estudo da mente.
A maneira de trabalhar da IA é segundo Dennett - e isto é um louvor - ambiciosa e
"saltadora de etapas": é uma abordagem top-down que nos fará avançar mais rapidamente
na compreensão da cognição do que as descrições bottom-up, nomeadamente as
neurobiológicas.
8
Por tudo isto, Dennett nunca deixa de recomendar aos filósofos a familiaridade com
os problemas de implementação relacionados com os seus problemas mais abstratos acerca
da mente. Por exemplo, aconselha sempre a familiaridade com o Jogo da Vida de John
Horton Conway, baseado na teoria dos autômatos celulares e antecessor das investigações
no campo da Vida Artificial, como uma maneira prática de considerar problemas relevantes
para a filosofia da mente como a identidade através do tempo, a causação, os níveis de
explicação. Correlativamente, aos cientistas que trabalham em IA, Dennett recomenda
algumas leituras filosóficas (como Hume, Ryle, Wittgenstein, Millikan...) oferecendo a
possibilidade de pela consciência histórica serem capazes de discernir as más idéias perenes
no tratamento da cognição que certamente os perseguirão.
Como foi dito, a fundamentação da posição de Dennett em relação à IA é o fato de
não admitir a possibilidade de uma distinção de essência entre Inteligência "natural" e
inteligência “não-natural”. Na medida em que a caracterização dos fenômenos mentais é
funcional, a discriminação entre os substratos que os realizam não está justificada. A IA
pode não ser natural por não ser resultado da evolução biológica mas, se a definição de
mental como funcional é legítima, ela é genuína e pode-nos fazer aprender muito sobre os
problemas específicos dos sistemas de representação de conhecimento dos quais a nossa
mente/cérebro é um caso particular.
No entanto para alguém como Fodor, esta fascinação de Dennett pela IA como
"maneira de investigar a mente" está completamente mal dirigida: segundo Fodor, a ciência
da mente deve ser psicologia cognitiva e não IA. A IA é engenharia, construção de
máquinas e como tal tem interesse científico por si, mas não é o bom caminho para o estudo
da mente. Uma coisa é tentar entender o pensamento, outra é construir máquinas
inteligentes: como Fodor diz também não se faz física simulando o universo. Essa seria
uma idéia muito pouco razoável, porque os fenômenos que observamos no mundo são
efeitos de complicadíssimas interações nos mecanismos subjacentes e na prática
impossíveis de reconstituir e isto também se aplica à física da cognição. Fodor pensa que
fazer ciência é simplificar para compreender e não simular, e assim deve fazer-se também a
ciência da mente. Mas Dennett quer andar depressa e a IA parece-lhe o atalho ideal.
9
O diferencial entre as posições de Fodor e Dennett quanto à IA é conduzida à
questão de saber se há ou não casos em que a simulação é replicação. Para quem defende
uma teoria funcionalista da natureza de alguma coisa, nomeadamente do mental, é difícil
resistir à conclusão de que há casos em que a simulação é replicação.
Além do mais é preciso decidir até que escala uma simulação teria que fazer-se para
obter propriedades mentais. No caso de as propriedades mentais serem funcionais e de nível
mais elevado do que a estrutura física da matéria que Fodor considera irreprodutível, a sua
objeção poderia não ser eficaz.
Frames e a representação do conhecimento
Veremos, assim, nos EUA, os pesquisadores interessados em IA adaptarem a noção
de esquemas mentais a vários modelos computadorizados buscando construí-los da maneira
como o conhecimento é representado e usado, como parte de seu interesse geral em
desenvolver modelos computadorizados da inteligência (Sternberg, 1996). Para isso, foi
desenvolvido um grande número de diferentes linguagens de representação e raciocínio,
várias delas, seguindo a idéia de frames (estruturas) e a metáfora da “sociedade da mente”
de Minsky, um importante cientista e pesquisador da Inteligência Artificial do
Massachusetts Institute of Technology (MIT).
Minsky se preocupará em criar uma abordagem que leva à criação de programas
computacionais que têm desempenho mais efetivo e modelam a atividade comportamental
humana mais fielmente. Para isso ele tenta juntar diversas pesquisas de Psicologia e IA
pretendendo ter uma teoria unificada e coerente da efetividade do pensamento do senso
comum. Suas idéias podem ser vistas como reações contra abordagens que deixam de
embutir conhecimento anterior ou expectativas, e também contra abordagens que exibem
conhecimento detalhado de uma área específica, mas não têm absolutamente nenhuma
generalidade ou conexão com qualquer outro domínio (Minsky, 1974 & Gardner, 1985).
10
De acordo com sua teoria quando alguém se depara com uma nova situação (ou cria
um mudança substancial na sua observação do problema presente) ela seleciona de sua
memória uma estrutura denominada Frame.
Uma frame é uma estrutura de dados para representar algum tipo de ambiente ou
uma situação estereotipada, tais como entrar em uma sala-de-estar, ou ir para um festa de
criança. Junto com cada frame estão vários tipos de informação: algumas são sobre como
usar a frame, algumas são sobre o que se espera que aconteça a seguir, e outras são sobre o
que fazer se alguma dessas expectativas não forem confirmadas (Minsky, 1974).
Ou seja, ligada a uma frame para participar de uma aula na faculdade está uma
especificação de como usar essa frame, por exemplo, o que fazer para se preparar para ir à
aula, como se comportar durante a aula. Em segundo lugar, tal frame especifica que,
quando o horário da aula se aproximar, você pode esperar que a maioria dos estudantes
esteja sentada e o professor entre na sala e comece a falar para o grupo de estudantes. Em
terceiro lugar, se o professor não chegar e ninguém aparecer para explicar o atraso do
professor, após um razoável período de tempo, espera-se que os estudantes comecem a
circular e finalmente abandonem a sala de aula, sem terem assistido a uma aula.
Podemos pensar uma frame como uma rede de nós e relações, reunindo fatos sobre
tipos específicos de objetos e eventos, e organizando-os em uma grande hierarquia
taxonômica análoga a uma taxonomia biológica (Russell & Norvig, 2003). Os níveis mais
altos de uma frame são fixos, e representa coisas que são sempre verdadeiras sobre a
suposta situação, por exemplo, durante as aulas, sempre há estudantes que escutam e um
conferencista que fala aos estudantes. Os níveis mais baixos possuem vários terminais -
lugares (slots) que são preenchidos pelos detalhes específicos de uma dada instância, por
exemplo, a aparência do professor, dos estudantes, assim como os estilos e as técnicas
particulares de ensinar.
Frames será uma versão de redes semânticas (relacionada ao significado, conforme
é expresso na linguagem - isto é, em símbolos lingüísticos), ou seja, uma estrutura esperada
de conhecimento sobre um domínio constituído por um núcleo e um conjunto de terminais.
Cada terminal corresponde a algum aspecto do domínio sendo modelado pela estrutura.
11
Nele uma descrição é criada e depois mantida através da substituição de valores previstos
por valores observados. Estas estruturas inter-relacionadas, as chamadas inter-frames,
tornam possível outras formas de representação de conhecimento sobre fatos, analogias, e
outras informações úteis na compreensão (Minsky, 1974). Supõe-se que os indivíduos
possuem muitas centenas de frames organizadores e interpretadores, e que combinações
destes frames serão invocados em qualquer situação razoavelmente complexa (Gardner,
1985).
A Sociedade da Mente
Minsky também apresentou uma concepção intrigante de como a mente funciona,
levando às novas propostas de como programas computacionais deveriam ser elaborados.
Em vez de acreditar em um simples processador geral/central, através do qual toda a
informação deve passar, ou em uma mente organizada e unificada que supervisiona toda
atividade, Minsky julga que a atividade mental é constituída por muitos agentes, cada um
dos quais é um especialista de algum tipo.
A partir de um de seus projetos, desenvolvidos no MIT com S. Papert, a construção
de uma máquina que pudesse ver bem o suficiente para ser capaz usar mãos mecânicas para
resolver problemas do mundo real, Minsky descobre que nenhum método sozinho é capaz
de trabalhar bem (Minsky, 1985, p.324). Por exemplo, o robô raramente distingui a forma
de um objeto usando apenas a visão, ela também precisa explorar outros tipos de
conhecimento sobre quais tipos de objetos servem para ser vistos. Esta experiência lhe
trouxe a idéia que a organização de diferentes tipos de processos interligados seriam
suficientes.
Em seu livro ‘The Society of Mind’ (1985), Minsky tenta explicar como a mente
funciona, mostrando como é possível construir uma mente formada de muitas partes
pequenas, que sozinhas são desprovidas de mentes. Uma de suas idéias é que essas
pequeninas máquinas podem contribuir para teorias sobre como funciona o pensamento. E
12
teorias melhores sobre como o processamento do pensamento, em sua concepção, nos
deixaria mais próximos de criar máquinas que façam tudo que as pessoas fazem.
De acordo com esta visão de “sociedade da mente”, a mente é construída de muitos
pequenos processadores chamados agentes (agents). Estes agentes da mente só podem fazer
coisas simples que não precisam de mente ou pensamento, mas que em sociedades conduz
para a verdadeira inteligência, podendo manejar diferentes tipos de conhecimento
simultaneamente. Cada agente local tem uma função, que é requisitada em certas
circunstâncias, e cada um tem acesso a outros agentes. Os agentes se comunicam emitindo
estimulação e inibição, ou mesmo censurando, e não transmitindo expressões simbólicas.
Mas tentar saber como os agentes são interligados - como grupos de agentes podem
completar as coisas com êxito - não é suficiente. Segundo este esquema, algumas partes da
mente sabem certas coisas (saber como), enquanto outras partes sabem coisas sobre as
anteriores (saber por que). Na verdade, o conhecimento de quais os agentes que podem
saber ou realizar que coisas tornam-se um componente crucial desta nova maneira de
conceber a mente (Minsky 1979, 1982 apud Gardner, 1985).
Minsky exemplifica os processos de representação na inteligência a partir do estudo
de uma criança brincando com blocos de construção. Imaginando que a mente de uma
criança possua um exército de pequenas mentes, os agentes mentais. Um agente chamado
Construtor (Builder) ficaria no controle para fazer torres com os blocos. Como construir
uma torre é um trabalho complicado para um único agente simples, então, o Construtor
pede ajuda de uma série de outros agentes, como iniciar (a construção), adicionar (blocos),
terminar; que por sua vez chamarão outros agentes para ajudar, por exemplo, para adicionar
blocos é necessário achar um bloco, e para isso vê-lo, movê-lo, depois, colocá-lo no lugar,
etc.
Apesar de um adulto achar que construir torres de blocos seja fácil, uma criança
dedica-se algumas semanas para essa tarefa. Isso indica que há um desenvolvimento,
todavia, apesar dos adultos saberem como fazer as coisas, ninguém entende como aprendeu
a fazê-las. Empilhar blocos são habilidades que aprendemos há muito tempo e não podemos
lembrar como aprendemos, essa tarefa fica relegada a um mero senso-comum - entretanto
13
senso-comum não é uma coisa simples, mas uma imensa sociedade de idéias práticas que
com grande dificuldade foram adquiridas de multidões de regras e exceções, disposições e
tendências, balanço e checagens, aprendidas na vida.
Considerações Finais
A ciência cognitiva contemporânea - o representacionismo e a IA desenvolvida pelo
MIT nos anos 70 - herdou os pressupostos da teoria clássica da representação. Este tipo de
ciência cognitiva que em grande parte prevalece até hoje, desenvolveu uma visão da
cognição e do chamado “modelo computacional da mente” onde ambos são definidos como
computações de representações simbólicas, muito próximas da noção de idéia cartesiana, e
por isso mesmo, pressupõem o “fantasma na máquina”, a mesma pressuposição que fazia
com que Descartes reconhecesse as limitações dos autômatos que os impediriam de terem
uma vida mental semelhante a nossa, por mais que a tecnologia pudesse avançar (Teixeira,
2004).
Essas são as principais dificuldades conceituais encontradas nas tentativas de
formulação de modelos cognitivistas da consciência: uma máquina poderia fazer tudo o que
um ser-humano faz, mas nunca poderia adquirir consciência do que está fazendo (Turing,
1950 apud Teixeira, 1995). Na visão do funcionamento mental, defendida por Minsky
(1985 apud Teixeira, 1995), a idéia de consciência apareceria pelo fato de que o sistema
possuiria um módulo superior ou controlador dos outros, que coordenaria as atividades do
sistema como um todo, dando-lhe unidade. Este módulo superior, para efetuar o controle,
teria acesso (externo) aos outros módulos e conteria em si um modelo do sistema - e é este
último aspecto que o equipararia a uma idéia de consciência. Esta concepção da consciência
como módulo controlador enfrenta todas as dificuldades geradas pelo regresso ao infinito,
afinal, o que monitora o módulo controlador? Será que podemos encontrar uma semelhança
de propriedades entre o módulo controlador e aquilo que habitualmente chamamos de
consciência? Este módulo superior seria incognoscível, ultrapassando o escopo da
investigação realizada pela ciência cognitiva (Teixeira, 1995).
14
A idéia de conhecimento como representação dos sistemas especialistas da década
de 70, parece estar na raiz da dificuldade tecnológica aparentemente envolvida na
construção destes sistemas: explosão combinatória, rigidez de estrutura e assim por diante
(Teixeira, 2004). Apenas recentemente os teóricos da IA têm desenvolvido tentativas de
reverter este quadro desanimador oriundo desta má parceria filosófica.
Paradoxalmente, observa-se que enquanto a filosofia neste último século tentou
derrubar a noção de representação e evitar o mentalismo nas suas concepções sobre o
conhecimento, a ciência cognitiva nas últimas décadas tentou se consolidar
fundamentando-se na noção de representação (idem). Para os filósofos esta noção sempre
constituiu um dos aspectos mais problemáticos a serem enfrentados pelas teorias da
cognição. Embora tenha sido numa aliança com a filosofia analítica que a ciência cognitiva
procurou encontrar seus fundamentos e ferramentas conceituais - definições de
conhecimento, representação, inferência, etc. - a própria filosofia analítica, nos últimos
anos, têm colocado em questão suas noções tradicionais de representação e conhecimento.
Ao ignorar a evolução da própria filosofia que lhe serviu de fundamento, a ciência
cognitiva pode comprometer seu futuro como programa de pesquisa. Essa ciência não pode
prescindir de uma noção de representação, mas, para incorporar os resultados da reflexão
filosófica contemporânea, teria de situar-se para além da noção tradicional de representação
(idem). Deixar de conceber a representação como fundamento da cognição e passar a tê-la
como um fenômeno que ocorre no mundo, constituindo parte integrante deste. Nossa
representação do mundo é parte do mundo e não sua condição de possibilidade – isto
parece ser a grande reversão operada pela filosofia contemporânea na sua crítica às teorias
que partem de uma noção tradicional de representação (idem).
A criação da ciência cognitiva apresenta-se, assim, como um estímulo à filosofia,
permitindo definir questões científicas cognitivas fundamentais de uma forma coerente e
assegurar a integração apropriada de trabalhos de campos díspares como uma auxiliar
indispensável para os cientistas empíricos. Mas, pela mesma razão, a filosofia deve sempre
acompanhar as descobertas científicas, para evitar se transformar em uma disciplina estéril,
ou irrelevante para o trabalho científico (Gardner, 1985).
15
Referências Bibliográficas
BAUMGARTNER, PAYR. (1999) Speaking Minds, Princeton University Press
DENNETT, Daniel. (1978) Brainstorms, MIT Press
__________. (1998) Brainchildren, Penguin
__________. (1999) Cog as a Thought Experiment
__________. (2000) Real Patterns
__________. (2001)Things about things
GARDNER, H. (1985) A Nova Ciência da Mente: Uma História da Revolução Cognitiva. São Paulo: Edusp.
HAUGELAND, (1985) Artificial Inteligence, The Very Idea, MIT Press
MINSKY, M. (1974) A Framework for Representing Knowledge. MIT-AI Laboratory, Memo 306, June, 1974. Disponível em: <http://web.media.mit.edu/~minsky/papers/ Frames/frames.html>. Acesso: 1 de maio de 2005.
__________. (1985) The Society of Mind. New York, USA: Touchstone.
RUSSELl, S & NORVIG, P. (2003) Inteligência Artificial. Rio de Janeiro: Elsevier.
STERNBERG, RJ. (1996) Psicologia Cognitiva. Porto Alegre: Artes Médicas Sul.
TEIXEIRA, JF (1995). Cognitivismo e Teorias da Consciência. In: Carvalho, MCM (Org). A filosofia analítica no Brasil. Campinas, SP: Papirus.
__________. (2004). Filosofia e Ciência Cognitiva. Petrópolis, RJ: Vozes.