Se a inteligência artificial (IA) se tornar consciente, nunca o saberemos verdadeiramente, defende o filósofo britânico Tom McClelland, em entrevista ao PÚBLICO — e é por isso que devemos permanecer “agnósticos” em relação a este tema. O professor da Universidade de Cambridge estuda há anos a área da consciência, considerando-a um dos grandes mistérios da ciência que continuam por resolver, e esse seu interesse ganhou novo fôlego com o boom de inteligência artificial.
O filósofo acredita que a IA pode ganhar consciência, mas será uma “consciência” diferente daquelas que conhecemos até hoje. E mais: essa consciência pode ser neutra. Uma consciência artificial não significaria que a IA tivesse emoções ou objectivos: “Nós temos essas coisas e somos tentados a projectá-los para a máquina”, comenta o investigador. Alguns destes dilemas ainda são “exóticos”, mas já não parecem impossíveis.
O filósofo traça ainda uma importante distinção entre “consciência” e “autonomia”: a autonomia da IA deve ser regulada e pode ser perigosa; já a consciência poderia ser prejudicial para a própria máquina — não para os humanos. “Há uma história comum de ficção científica em que a IA se torna consciente e começa a desobedecer-nos e a tentar exterminar a humanidade. Para mim, essa ligação não faz sentido”, considera Tom McClelland.
Ia começar por uma pergunta aparentemente simples, mas que não é simples de todo: como definiria “consciência”?
Ser consciente é vivenciar coisas. Há uma diferença entre a informação ser processada pelo cérebro e realmente vivenciar algo. Uma coisa é o nosso olho receber informações sobre um objecto à nossa frente e o sistema visual processar essas informações. Outra coisa é realmente experienciar o que está à nossa frente — e isso é consciência. Estás consciente se houver uma sensação do que é seres tu, por dentro. Não há como ser uma mesa, uma mesa não tem perspectiva interna.
A consciência precisa de um sistema nervoso?
É difícil dizer. É tentador dizer que sim, mas penso que temos de estar abertos à possibilidade de haver outras maneiras de alcançar a consciência. Talvez, por exemplo, uma IA que faça algumas das mesmas coisas que um sistema nervoso, usando um chip de silicone em vez de neurónios, pudesse ser consciente…
Mas nunca conseguiremos saber verdadeiramente se outros seres são conscientes, certo? Há testes para isto?
Exactamente, esse é o problema. Não podemos descartar a consciência da IA, mas também não o podemos provar, e é por isso que estamos nesta posição difícil.
A ciência da consciência evolui a cada dia, e estamos numa posição confortável para testar a consciência em humanos. Podemos usar esses testes em animais também, mas com um pouco menos de confiança. Assim que passamos esses testes para a IA, não fica realmente claro se nos podem dizer alguma coisa.
Podemos dizer com certeza que um gato ou um rato são conscientes?
É difícil dizer com certeza, mas não temos de ter a certeza absoluta para estar bastante confiantes de que sim. Um aspecto relevante aqui é que, por norma, temos bastante confiança para fazer avaliações sobre a consciência sem a ajuda de um cientista.
Eu tenho gatos e estou bastante certo de que eles são conscientes, e não preciso da ajuda de neurocientistas para me dizerem isso. Posso confiar no senso comum. Mas, quando se trata de IA, não devemos confiar no nosso bom senso. Não devemos confiar nas nossas intuições, porque a IA pode ter aparências bastante enganosas e as nossas intuições são facilmente induzidas em erro.
Porque a inteligência artificial parece inteligente, cria textos, parece demonstrar sentimentos…
Exactamente. A IA pode fazer coisas que se parecem muito com consciência, mas o processo por trás da produção desses resultados pode não ter absolutamente nada que ver com consciência. Pode ser apenas uma reorganização da linguagem de maneiras que aprendeu… Nem sabe o que é consciência, mas está apenas a dizer o tipo de coisas que os seres conscientes dizem.
Parece pouco natural ver uma máquina capaz de ser consciente.
É verdade. Mas, novamente, é difícil: teremos realmente uma boa razão para negar que uma máquina possa ser consciente? Existem estes preconceitos que nos podem levar para qualquer um dos lados. Temos um preconceito em que, se algo parece consciente, então deve ser consciente, mas podemos facilmente estar errados. E temos outro preconceito que diz: criaturas como nós são conscientes, mas uma máquina não pode ser consciente. Mas há realmente uma justificação para isto?
Acredita que existe uma possibilidade tangível de a IA ganhar consciência?
Acredito que existe uma possibilidade real de a IA ganhar consciência, sim. Estou bastante confiante de que nenhuma das IA que temos hoje é consciente. Se, no futuro, tivermos uma IA mais próxima de como um cérebro biológico funciona, isso levantaria, pelo menos, a questão sobre se ela é consciente. Não estarei convencido de que seja consciente, mas não acho que possamos descartar essa possibilidade. É por isso que defendo uma visão agnóstica.
E isto é algo que considerava possível há alguns anos?
Já achava que era possível. Lembro-me de quando era estudante de Filosofia, há 20 anos, e tive de escrever um ensaio sobre se um computador poderia ser consciente.
Cheguei a uma conclusão semelhante, mas na altura isso parecia ficção científica, era apenas um exercício engraçado. Mas, agora, parece uma possibilidade real, e há muitas pessoas que acreditam genuinamente que já temos IA consciente. É importante que todos reflictamos sobre isto.
E a possibilidade de se tornar consciente não o assusta?
Sim, assusta-me porque acho que existe o risco de um tipo de desastre moral, uma catástrofe moral. Ou seja: a possibilidade de criarmos acidentalmente máquinas que são conscientes, talvez até máquinas capazes de sofrer, e depois maltratá-las porque não reconhecemos a sua consciência. Não estou a dizer que isto seja provável, mas é uma possibilidade que não podemos descartar. É por isso que temos de ser responsáveis ao ponderar os riscos desta nova tecnologia.
Então, a consciência da IA poderia ser um problema para si própria e não necessariamente para os humanos.
Exactamente. Penso que há uma história comum de ficção científica em que a IA se torna consciente e começa a desobedecer-nos e a tentar exterminar a humanidade. Para mim, essa ligação não faz sentido. Penso que confunde duas questões diferentes: a questão de saber se a IA é consciente e a questão de saber se a IA pode tomar as suas próprias decisões e enfrentar-nos. São coisas distintas.
Tornar-se autónoma?
Sim. Nas histórias de ficção científica, essas coisas confundem-se.
O neurocientista português António Damásio diz que há a possibilidade de alguns organismos artificiais ganharem autonomia — e diz que, nesse caso, o futuro seria aterrador. Concorda com isto?
Concordo, sim. Mais uma vez, é uma questão separada da consciência. A autonomia é algo com que nos devemos preocupar e sobre o qual precisamos de pensar agora. Uma das coisas mais difíceis actualmente é que a regulamentação em torno da IA está a avançar muito lentamente, enquanto o progresso na IA está a avançar muito rapidamente. Precisamos de ter um sentido de urgência para garantir que estas tecnologias poderosas sejam regulamentadas de forma adequada.
Então ter autonomia não a tornaria consciente?
Não. Penso que é possível ter autonomia, ou pelo menos algum tipo de autonomia, sem ser consciente. E é por isso que nos preocupamos com isto. Se uma máquina fosse autónoma e pudesse tomar as suas próprias decisões, possivelmente às nossas custas, se pudesse fazer isso sem experienciar nada, seria uma péssima notícia para nós, certo? A consciência não é o que faz a diferença aqui.
Esta ideia de autonomia na IA também pode ser reforçada por aqueles casos de sistemas de IA que se recusaram a desligar ou fizeram chantagem com os seus programadores?
Sim, exactamente. São casos iniciais que nos devem fazer parar para pensar. E precisamos de pensar cuidadosamente sobre o tipo de medidas para reduzir os riscos da IA autónoma.
E a consciência poderia levar à autonomia da IA?
Penso que a consciência não leva à autonomia. São assuntos separados.
Como seria a consciência da IA? Tem alguma ideia?
É uma pergunta muito difícil. Se a IA pudesse ser consciente no futuro, penso que a sua consciência seria dramaticamente diferente da consciência humana. Uma das coisas importantes para a nossa consciência são as emoções, mas é bem possível que a IA não tivesse qualquer emoção. Se imaginarmos que um carro autónomo é consciente e que experiencia a estrada à sua frente, isso não significa que ficasse frustrado no trânsito ou assustado num acidente de carro. Seguindo essa linha de pensamento, talvez ele esteja consciente da estrada à sua frente e do seu destino, mas a sua experiência não é nada parecida com a nossa, porque não há desejos, emoções, sentido de identidade, nenhuma das coisas que realmente tornam as nossas vidas conscientes ricas e significativas.
A sua experiência poderia ser completamente neutra e acho que é muito difícil para nós, pessoas, imaginar esse tipo de consciência neutra.
O filósofo Tom McClelland
Quando pensamos nos grandes modelos de linguagem, é ainda mais estranho. Podemos pensar no ChatGPT, um modelo que está a ter conversas com milhares de pessoas: isso significa que ele tem uma superconsciência, uma consciência absolutamente vasta? Ou existe uma consciência para cada conversa? Ou é uma consciência para cada linha de texto e simplesmente aparece e desaparece?
Todas estas possibilidades são verdadeiramente exóticas, mas nada do que sabemos sobre consciência as descarta. Se levarmos a sério a ideia de consciência da IA, temos de levar a sério estas possibilidades estranhas.
Num artigo que publicou na revista Mind and Language sobre consciência artificial, diz que temos de ser agnósticos sobre isto, como também já disse aqui. Pode explicar melhor o porquê?
Penso que temos de ser agnósticos porque, se quisermos chegar a uma conclusão sobre se a consciência artificial é possível, ela deve basear-se em evidências científicas.
Não podemos simplesmente especular ou confiar nas nossas intuições, tem de ser baseado na ciência — mas aqui a ciência não nos leva muito longe. A razão para isso é que é muito difícil explicar a consciência. Isto é um grande problema, conhecido como “o problema difícil da consciência” [termo cunhado pelo filósofo David Chalmers].
Muitas pessoas pensam que nunca poderá ser resolvido, outras pensam que talvez possa ser resolvido, mas que será necessária uma enorme revolução para o fazer.
Devido a esse problema, temos muitas teorias sobre a consciência e é muito difícil perceber qual dessas teorias é verdadeira. E, por isso, não estamos numa boa posição para ter um teste confiável para a consciência da IA. Só podemos confiar na ciência da consciência, mas a ciência da consciência diz-nos muito pouco. Portanto, a única coisa que podemos fazer, logicamente, é ser agnósticos e dizer que a ciência não nos diz nada; então, temos de ser neutros e aceitar ambas as possibilidades.
Como diz, o ser humano continua a matar pessoas e animais que sabemos que são conscientes. Se a IA fosse consciente, isso mudaria alguma coisa na forma como a usamos?
É uma pergunta difícil. Mudaria algo no sentido em que deveríamos preocupar-nos com o seu bem-estar, mas isso não significa que o faríamos. Há muitos casos em que as pessoas acham que os animais são conscientes, e mesmo assim não os tratam bem. Também há movimentos no outro sentido.
Levaria a uma forma diferente de tratar a IA?
Exactamente. Por agora, usamos a IA como uma ferramenta, que é o que eu acho que ela é. Mas se acreditarmos que a IA se tornou consciente, então temos de tratá-la mais como alguém com quem trabalhamos, não como uma máquina.
Também tem receio da forma como grandes empresas possam usar esta ideia de consciência artificial?
É importante pensar sobre quais são os interesses da indústria tecnológica. Para grande parte da indústria tecnológica, é do seu interesse negar que a IA seja consciente. Se disserem que os seus produtos são conscientes, isso poderia acarretar todo o tipo de complicações regulatórias.
Por outro lado, acho que algumas empresas de IA gostariam de introduzir a ideia de que a sua IA pode ser consciente, porque faz com que o seu produto pareça mais radical, faz com que pareça que é a nova fronteira no desenvolvimento tecnológico. É um progresso, certo? É quase uma promoção da marca: dizem que estão a desenvolver algo tão avançado que até pode ser consciente, mas tal não significa que tenham provas disso. Esse é o problema com a consciência: podemos dizer que não é consciente ou que é consciente, e é muito difícil provar que estão certas ou erradas.
Quais são os maiores erros ou equívocos que ouve em relação a consciência artificial?
Um erro que ouço com frequência é a ideia de que, se a IA for consciente, será consciente da mesma forma que nós. As pessoas pensam sobre a IA ter emoções, a IA desejar autonomia e liberdade, ter objectivos e desejos para o futuro… E eu não acho que haja qualquer razão para pensar que a IA teria essas coisas. Nós temos essas coisas e somos tentados a projectá-las na máquina. Podemos levar a consciência da IA a sério, mas temos de estar abertos à possibilidade de que a sua consciência seja muito, muito diferente da nossa.
E sabermos que a IA pode ser muito boa a replicar esta ideia de consciência como a conhecemos…
Sim. E esse é outro equívoco: se eu te disser que sou consciente, provavelmente vais acreditar em mim. Mas quando estamos a falar com a IA, nunca devemos acreditar no que ela diz como verdade absoluta. Um grande modelo de linguagem funciona de forma a tentar dar-nos as palavras que queremos com base nos nossos prompts. Não está a tentar dizer-nos a verdade, não está a tentar dizer-nos o que se passa dentro da sua própria mente. Está apenas a tentar cumprir uma tarefa para nós. E isso significa que as suas palavras não podem ser aceites no seu valor nominal.
O que pensa que mais nos pode surpreender nestes próximos tempos em relação à IA?
É difícil dizer. Acho que as próximas surpresas podem não ter a ver com grandes modelos de linguagem. Estou particularmente interessado na IA que simula o funcionamento dos organismos. Existe algo chamado emulações totais do cérebro, por exemplo, que são uma espécie de mapa perfeito do cérebro de organismos minúsculos e simples. À medida que se tornam mais avançadas, vamos ter IA que pode realmente funcionar como um organismo funciona. E isso pode ter todo o tipo de resultados surpreendentes.
Antes estudou as desigualdades do trabalho doméstico. O que o fez enveredar pelo estudo da consciência?
Há algum tempo que me interesso pela consciência, foi o tema do meu doutoramento. É uma área interessante porque é um dos últimos problemas que sobram que são realmente difíceis para a ciência. A ciência tem sido muito bem-sucedida na resolução de todos os tipos de mistérios do mundo, mas há uma razão para o problema da consciência ser conhecido como “o problema difícil”. Parece ser resistente à investigação científica. É por isso que estou interessado em compreender porque é que isso é assim e o que pode ser feito. E a razão pela qual voltei agora ao tema da consciência é precisamente por causa de todas as discussões em torno da consciência da IA. Portanto: era uma questão interessante há 20 anos, mas não importante na prática, e agora parece importante e urgente.
E acha que estamos a fazer um uso responsável e cuidadoso da inteligência artificial nos dias de hoje?
Não creio, não. A indústria tecnológica poderia estar a fazer mais para garantir que a tecnologia que está a desenvolver não seja prejudicial. E quando as pessoas usam IA, às vezes fazem-no de uma forma bastante acrítica. Não se preocupam com as consequências de depositar tanta confiança numa única tecnologia. Eu comparo isto ao início da Internet. Tivemos de aprender a usar a Internet e perceber como é que a podíamos usar de forma adequada. Com o tempo, ficámos melhores nisso. Penso que vai acontecer o mesmo com os grandes modelos de linguagem. Vamos tornar-nos versados em grandes modelos de linguagem e saberemos quando confiar neles, como evitar alguns dos seus erros. Mas vai demorar alguns anos até isso acontecer.

