ChatGPT conquistou o mundo, deslumbrando as pessoas com sua geração de linguagem natural eloquente e cheia de nuances. Mas embora seja impressionante na superfície, olhar sob o capô revela fraquezas notáveis.
Nesta postagem, desmistificaremos o funcionamento interno de grandes modelos de linguagem (LLMs) como ChatGPT. Meu objetivo é uma análise confiável que separe os fatos da ficção em relação aos avanços recentes da IA.
Como funcionam os LLMs: compreendendo suas promessas e limitações simultâneas
Então, o que exatamente são LLMs e como os modelos gostam ChatGPT operar? Resumindo:
- LLMs ingerem enormes conjuntos de dados de texto, permitindo-lhes prever uma linguagem humana notavelmente fluente
- Mas, ao contrário dos humanos, os LLMs carecem de compreensão, raciocínio e fundamentação factual sobre o mundo real
- Portanto, embora possam gerar textos lindamente polidos, muitas vezes carecem de coerência, precisão ou bases lógicas sólidas.
Vamos explorar a mecânica e as limitações dos LLMs mais de perto…
LLMs não entendem realmente as palavras que geram
A chave para compreender os pontos fortes e as falhas do LLM está na sua metodologia de treinamento:
- Eles ingerem até centenas de bilhões de palavras de sites, livros, artigos e muito mais
- Ao detectar padrões de palavras, eles aprendem probabilidades sobre sequências potenciais
- Isto permite-lhes gerar novas combinações em conformidade com esses padrões linguísticos.
No entanto, não há nenhum significado codificado associado a essas palavras. Sequências meramente previstas com base em exemplos anteriores.
Portanto, embora eloqüente, não há compreensão ou raciocínio verdadeiro acontecendo nos bastidores. E isso explica muitos dos erros factuais e lacunas lógicas flagrantes dos LLMs.
LLMs não têm base no mundo real
Além disso, como os LLMs apenas ingerem corpora de texto durante a formação, falta-lhes conhecimento do mundo real sobre como a realidade funciona.
Portanto, quaisquer “fatos” ou “conhecimento” exibidos por modelos como ChatGPT é superficial e impreciso – reunido a partir de padrões de palavras, em vez de fundamentado na verdade.
Esta falta de raciocínio e fundamentos factuais explica as declarações notoriamente incorretas ou absurdas dos LLMs. Suas respostas podem parecer incríveis, mas muitas vezes são uma ficção completa.
Não há identidade consistente ou sistema de crenças
Finalmente, os LLMs também carecem de uma identidade persistente que una as respostas:
- Os humanos desenvolvem crenças coesas e integridade em torno de tópicos ao longo do tempo
- LLMs como ChatGPT gerar cada resposta de forma independente, sem consistência
- Então você verá contradições flagrantes ao investigá-las através de perguntas
Isoladamente, os resultados do LLM podem parecer coerentes e inteligentes. Mas vá mais longe e suas falhas se tornarão aparentes.
Considerações finais: otimismo medido diante do hype
O rápido progresso na IA de linguagem natural é impressionante. Em aplicações restritas, ferramentas como ChatGPT mostrar promessa.
No entanto, afirmações inflacionadas em torno da inteligência a nível humano parecem prematuras. Os LLMs avançaram muito, mas ainda enfrentam restrições fundamentais em relação à cognição biológica.
A excitação é justificada, mas o entusiasmo deve ser moderado. O caminho a seguir continua longo, mas os LLMs proporcionam uma pequena visão das possibilidades futuras.