Já em 1980, o filósofo americano John Searle distinguiu entre IA forte e fraca. As IAs fracas são meramente máquinas ou programas úteis que nos ajudam a resolver problemas, enquanto as IAs fortes teriam inteligência genuína. Uma IA forte seria consciente.
Searle era cético quanto à própria possibilidade de uma IA forte, mas nem todos compartilham de seu pessimismo. Os mais otimistas são aqueles que endossam o funcionalismo, uma popular teoria da mente que considera que os estados mentais conscientes são determinados exclusivamente por sua função. Para um funcionalista, a tarefa de produzir uma IA forte é apenas um desafio técnico. Se pudermos criar um sistema que funcione como nós, podemos ter certeza de que ele é consciente como nós.
A questão de saber se uma máquina pode nos enganar e nos fazer pensar que é humana é o tema de um teste bem conhecido criado pelo cientista da computação inglês Alan Turing em 1950. Turing afirmava que, se uma máquina fosse capaz de passar no teste, deveríamos concluir que ela era genuinamente inteligente.
A questão principal é: o que uma máquina teria que fazer para nos convencer?
Mas criar uma IA forte é um desafio tanto psicológico quanto técnico. Uma coisa é produzir uma máquina que satisfaça os vários critérios técnicos que estabelecemos em nossas teorias, mas outra coisa bem diferente é supor que, quando finalmente nos depararmos com tal coisa, acreditaremos que ela é consciente.
Dificuldades com os mainás
É aqui que entramos no obscuro reino de um antigo dilema filosófico: o problema das outras mentes. Em última análise, nunca se pode saber com certeza se algo além de nós mesmos é consciente. No caso dos seres humanos, o problema é pouco mais do que ceticismo ocioso. Nenhum de nós pode considerar seriamente a possibilidade de que outros seres humanos sejam autômatos sem pensamento, mas no caso das máquinas parece ser o contrário. É difícil aceitar que elas possam ser outra coisa.
Isso não significa que nunca criaremos uma máquina consciente, é claro, mas sugere que talvez tenhamos dificuldade em aceitá-la se isso acontecer. E essa pode ser a ironia definitiva: ter sucesso em nossa busca para criar uma máquina consciente, mas nos recusarmos a acreditar que conseguimos. Quem sabe isso já pode ter acontecido.
Então, o que uma máquina precisaria fazer para nos convencer? Uma sugestão provisória é que ela talvez precisasse exibir o tipo de autonomia que observamos em muitos organismos vivos.
Talvez se pudéssemos criar uma máquina que exibisse esse tipo de autonomia — o tipo de autonomia que a levaria além de uma mera máquina de imitação —, realmente aceitaríamos que ela era consciente?
*David Cornell é professor sênior de Filosofia na University of Lancashire
Este artigo é uma republicação do The Conversation. Leia o texto original.
Quem usa IA no trabalho é visto como mais preguiçoso e menos competentes pelos colegas
Fonte ==> Você SA