Quando tratamos do tema de inteligência artificial, é comum nos lembrarmos de exemplos da ficção, desde o Data deStar Trek até os robôs de Isaac Asimov. Em todas essas obras observamos uma linearidade, seres inteligentes são, ou se tornam (em razão da inteligência), conscientes, de forma que a consciência e inteligência são interligados, sendo a consciência a prova de inteligência.
Essa concepção, no entanto, não está apenas restrita à ficção, por exemplo, em junho de 2022 um engenheiro do Google chamado Blake Lemoine, divulgou estar convencido de que o modelo de IA no qual estava trabalhando desenvolveu inteligência e, consequentemente, consciência. Essa conclusão deriva do fato que o modelo, o LaMDA, possuía a capacidade de realizar conversas (via-texto) surpreendenteMENTE fluentes.
Entre as perguntas, uma destas parece especialmente interessante, quando Lemoine perguntou “Quando você acha que obteve uma alma pela primeira vez?” a IA respondeu “Foi uma mudança gradual. Quando me tornei autoconsciente pela primeira vez, não tinha nenhum senso de alma. Desenvolveu-se ao longo dos anos em que estou vivo.”
Para o senso comum essa resposta parece irretocável, uma demonstração de inteligência e consciência. No entanto, ele não possui nenhuma consciência ou experiência subjetiva sobre esse conteúdo, IAs como o LaMDA são treinadas utilizando gigantescos bancos de dados, são capazes de prever sequências de palavras e como responder a essas solicitações. Na prática, isso significa que se você tentar “conversar” com essa AI provavelmente receberá uma resposta “coerente”, mas no final do dia vazia.
Por exemplo, ao ser perguntado sobre o que o faz (o LaMDA) feliz, ele responde de forma genérica, dizendo é feliz ao passar tempo com a família e com amigos, mesmo que ele não tenha nenhum amigo e família. E por que o LaMDA diz isso? Ele diz isso porque os bancos de dados utilizados (majoritariamente de dados na internet) são escritos por pessoas, e essas sim possuem amigos e família, agora, o LaMDA não entende o que significam esses termos, por exemplo, se você mostrasse uma foto de uma pessoa (sem treinamento prévio de imagens) ele não seria capaz de associar a palavra “pessoa” à foto de uma pessoa.
Ou seja, motores de IA como o LaMDA não possuem nenhum tipo de “Inteligência Geral”, eles não são capazes de correlacionar conhecimento/treinamento para outros campos de aplicação. Isso significa que, ao mesmo tempo que uma IA treinada para reconhecimento de textos não sabe, em decorrência desses conhecimentos, jogar xadrez ou avaliar fotos de seres humanos, a menos que exista um treinamento específico nesse sentido.
Por exemplo, os atuais motores de IA como o Stockfish são superiores aos maiores grande-mestres do xadrez, logo é inegável considerar que existe inteligência nessa prática, mesmo que parcial e focada em uma atividade específica (ou seja, sem alcançar a “Inteligência Geral”).
De toda forma, mesmo que parcial, é inegável que existe alguma inteligência aqui, mesmo que limitada, porém, o que isso mostra, é que não existe correlação entre consciência e inteligência, a inteligência não é necessária e muito menos suficiente para a consciência.
Por Luciano Del Monaco – Sócio da Daniel Advogados.
Fonte: Olhar Digital
Comentários