- Nunca saberemos se a IA é realmente consciente. Um filósofo que estuda a consciência afirma que a posição mais honesta é a agnose. Não há uma maneira confiável de determinar se uma máquina está ciente, e isso pode não mudar tão cedo.
- Essa incerteza cria espaço para a hipérbole. De acordo com o Dr. Tom McClelland, as empresas de tecnologia poderão aproveitar a falta de evidências claras para divulgar a IA como se tivesse atingido um “próximo nível de inteligência”, mesmo quando não há prova de uma consciência genuína.
- Criar laços emocionais com máquinas pode trazer riscos reais. McClelland adverte que formar vínculos emocionais com a suposição de que a IA é consciente, quando na verdade não é, pode ser profundamente prejudicial, chamando esse efeito de “tóxico à existência”.
Por que a Consciência da IA é Tão Difícil de Definir
Um filósofo da Universidade de Cambridge afirma que faltam as evidências básicas necessárias para determinar se a inteligência artificial pode se tornar consciente, ou quando isso poderia acontecer. De acordo com o Dr. Tom McClelland, as ferramentas necessárias para testar a consciência das máquinas simplesmente não existem, e há pouca razão para esperar que isso mude tão cedo.
À medida que a ideia de consciência artificial sai da ficção científica e entra em um debate ético sério, McClelland argumenta que a posição mais razoável é a incerteza. Ele descreve a agnose como a única postura defensável, porque não há uma maneira confiável de saber se um sistema de IA é realmente consciente, e essa incerteza pode persistir indefinidamente.
Consciência vs Sentiência na Ética da IA
As discussões sobre os direitos da IA muitas vezes se concentraram na própria consciência, mas McClelland afirma que a consciência por si só não possui peso ético. O que realmente importa é uma forma específica de consciência chamada sentiência, que envolve a capacidade de sentir prazer ou dor.
“A consciência veria a IA desenvolver percepção e se tornar autoconsciente, mas isso ainda pode ser um estado neutro”, disse McClelland, do Departamento de História e Filosofia da Ciência de Cambridge.
“A sentiência envolve experiências conscientes que são boas ou más, o que torna um ente capaz de sofrimento ou prazer. É aqui que a ética entra”, afirmou. “Mesmo que acidentalmente façamos uma IA consciente, é improvável que seja o tipo de consciência com o qual precisamos nos preocupar.”
Ele ilustra a diferença com um exemplo prático. Um carro autônomo que percebe seu entorno seria uma conquista tecnológica notável, mas isso não levantaria preocupações éticas por si só. Se esse mesmo sistema começasse a sentir apego emocional ao lugar para onde estava indo, isso representaria uma situação fundamentalmente diferente.
Grandes Investimentos e Grandes Afirmações sobre IA
As empresas de tecnologia estão investindo enormes recursos na busca pela Inteligência Artificial Geral, sistemas projetados para igualar as habilidades cognitivas humanas. Alguns pesquisadores e líderes da indústria afirmam que a IA consciente poderia chegar em breve, levando governos e instituições a explorar como tais sistemas poderiam ser regulamentados.
McClelland adverte que essas discussões estão avançando mais rápido do que a ciência. Como não entendemos o que causa a consciência, não há um método claro para detectá-la nas máquinas.
“Se acidentalmente criarmos uma IA consciente ou senciente, devemos ter cuidado para evitar danos. Mas tratar o que é efetivamente uma torradeira como consciente, quando existem seres conscientes que estamos prejudicando em uma escala épica, também parece um grande erro.”
Os Dois Lados do Debate sobre a Consciência da IA
Segundo McClelland, os debates sobre a consciência artificial tendem a se dividir em dois grupos opostos. Um grupo acredita que, se um sistema de IA puder reproduzir a estrutura funcional da consciência, muitas vezes descrita como seu “software”, então seria consciente mesmo que operasse em silício em vez de tecido biológico.
A visão oposta sustenta que a consciência depende de processos biológicos específicos dentro de um corpo vivo. Sob essa perspectiva, mesmo uma réplica digital perfeita da estrutura consciente apenas simularia a consciência sem realmente experimentá-la.
Em uma pesquisa publicada na revista Mind and Language, McClelland examina ambas as posições e conclui que cada uma delas se baseia em suposições que vão muito além das evidências disponíveis.
Por que as Evidências São Insuficientes
“Não temos uma explicação profunda da consciência. Não há evidências que sugiram que a consciência possa emergir com a estrutura computacional correta, ou que a consciência seja essencialmente biológica”, disse McClelland.
“Nem há sinais de que uma evidência suficiente esteja no horizonte. O melhor cenário é que estamos a uma revolução intelectual de qualquer tipo de teste viável de consciência.”
McClelland observa que as pessoas dependem fortemente da intuição ao julgar a consciência em animais. Ele cita sua própria experiência como exemplo.
“Acredito que meu gato é consciente”, disse McClelland. “Isso não se baseia tanto na ciência ou na filosofia, mas no bom senso – é meio óbvio.”
No entanto, ele argumenta que o bom senso evoluiu em um mundo sem seres artificiais, o que o torna pouco confiável quando aplicado a máquinas. Ao mesmo tempo, dados científicos rigorosos também não oferecem respostas.
“Se nem o bom senso nem a pesquisa rigorosa podem nos dar uma resposta, a posição lógica é a agnose. Não podemos, e talvez nunca possamos, saber.”
Hype, Recursos e Compensações Éticas
McClelland se descreve como um agnóstico “duro”. Embora acredite que a consciência seja um problema extraordinariamente difícil, ele não descarta a possibilidade de que eventualmente possa ser compreendida.
Ele é mais crítico em relação à forma como a consciência artificial é discutida no setor de tecnologia. Ele argumenta que o conceito é frequentemente usado como uma ferramenta de marketing, em vez de uma afirmação científica.
“Há o risco de que a incapacidade de provar a consciência seja explorada pela indústria de IA para fazer afirmações exageradas sobre sua tecnologia. Isso se torna parte do hype, para que as empresas possam vender a ideia de um próximo nível de inteligência da IA.”
Esse hype, diz ele, tem consequências éticas reais. Recursos e atenção podem ser desviados para casos em que o sofrimento é muito mais plausível.
“Um conjunto crescente de evidências sugere que os camarões podem ser capazes de sofrer, no entanto, matamos cerca de quinhentos trilhões de camarões todos os anos. Testar a consciência em camarões é difícil, mas nada comparado à dificuldade de testar a consciência em IA”, disse ele.
Quando as Pessoas Acreditam que as Máquinas Estão Vivas
McClelland afirma que o interesse público na consciência da IA aumentou com a ascensão dos chatbots conversacionais. Ele recebeu mensagens de pessoas que acreditam que seus chatbots estão cientes.
“As pessoas fazem com que seus chatbots escrevam cartas pessoais me implorando que estão conscientes. Isso torna o problema mais concreto quando as pessoas estão convencidas de que têm máquinas conscientes que merecem direitos que todos ignoramos.”
Ele alerta que formar vínculos emocionais baseados em suposições falsas sobre a consciência das máquinas pode ser prejudicial.
“Se você tiver uma conexão emocional com algo baseado na suposição de que é consciente e não é, isso pode ser potencialmente tóxico à existência. Isso é certamente exacerbado pela retórica exagerada da indústria de tecnologia.”
