Uma breve reflexão sobre o futuro com as IAs

Eu costumo usar muito as IAs, testo a maioria delas e, por vezes, me pego refletindo sobre elas. A maioria das pessoas não entende o potencial, o limite e a necessidade dessas ferramentas.

Começando pela limitação, podemos ficar tranquilos quanto a uma IA criar consciência e se voltar contra a humanidade. O modelo atual delas é tipo um autocomplete turbinado, cada vez mais abrangente e preciso, mas não chega a ser inteligência de verdade. Prova disso é que as IAs não sabem multiplicar direito [1]. Elas até acertam com poucos dígitos, mas, se fossem inteligentes de fato, acertariam com qualquer quantidade.

Ou seja, podem evoluir o quanto for e até alcançar a AGI, mas nunca serão uma consciência artificial. Esse é o limite delas. Sabendo disso, é inegável que elas já fazem parte da nossa vida. A menos que uma tempestade solar acabe com tudo (algo tão difícil de acreditar quanto uma invasão alienígena no final de abril deste ano), ignorá-las ou rejeitá-las é um erro.

O uso de IAs precisa ser incentivado em todas as áreas. Elas podem nos ajudar de formas que ainda nem imaginamos. Quem, há 30 anos, diria que o mundo giraria em torno da internet? Hoje dependemos dela pra tudo, porque facilita nossa vida, assim como o GPT, o Grok e outras IAs fazem. E sem essa história de que vão tirar nossos empregos.

Não dá pra se preocupar demais nem botar todas as esperanças nisso. Elas têm limites e não conseguem fazer tudo sozinhas. O grande problema dos modelos atuais (os LLMs) é que precisam consumir uma quantidade enorme de conteúdo pra gerar algo. Isso funciona agora porque quase tudo que elas consomem foi criado por humanos, mas essa realidade tá mudando [2]. Muito do conteúdo novo já é feito por IA (este texto mesmo pode ter sido ou será ajustado por uma), e isso cria um problema de autofagia que leva ao delírio.

É como o incesto: os defeitos se multiplicam e geram deformidades. Nos modelos de IA, os delírios crescem porque elas consomem esses pequenos erros e os replicam, cada vez mais fortes. Isso é algo natural dos LLMs, não tem como escapar, a menos que um humano fique corrigindo os deslizes [3].

Então, programadores não vão sumir. O trabalho deles vai ser revisar e corrigir o código que as IAs geram. Essa vai ser a diferença entre o júnior e o sênior. O júnior segue a IA cegamente, o sênior sabe direcioná-la.

Esse problema aparece até em modelos que não são LLMs, como o SupGen, que tentam resolver as coisas como humanos. Sempre vai ter mais de uma resposta pra mesma pergunta. Quanto mais genérico o pedido, mais possibilidades surgem. No melhor dos casos, é preciso saber que tipo de resposta se quer, e só um humano consegue definir isso. IAs não entendem o que é certo ou errado. Elas simplesmente não sabem. O que fazem é entregar o que pedimos, e, se não soubermos pedir direito, não vão dar o que queremos.

Por isso, o papel do programador vai ser saber o que pedir. Isso já acontece agora. O júnior pede um monte de coisa, muitas vezes errada, sem nem perceber. O sênior sabe como pedir e o que quer de resposta. Isso não muda com a AGI, por definição.

A AGI vai melhorar nossa vida, abrir mais oportunidades e facilitar o trabalho, mas não vai nos substituir. Infelizmente.

Referências: [1] https://x.com/yuntiandeng/status/1889704768135905332 [2] https://www.youtube.com/watch?v=MoqqhmU8co0 [3] https://www.youtube.com/watch?v=-3VK7qF-6dY