Skip to content

Apenda a Aprender

Updated: at 07:23 AM

Como os LLMs Estão a Construir Bases de Conhecimento “Vivas” por Nós

A Sobrecarga de Informação

Todos conhecemos a frustração de acumular centenas de artigos, ensaios e PDFs que, com o tempo, se transformam num autêntico cemitério digital. Guardamos informação com a intenção piedosa de a organizar “mais tarde”, mas o volume é tão esmagador que esses dados raramente são lidos, quanto mais sintetizados. O resultado é um arquivo morto de conhecimento que ocupa espaço no disco, mas zero espaço na nossa compreensão.

Estamos agora a entrar numa mudança de paradigma fundamental, impulsionada pela produtividade de tokens. O papel do utilizador está a evoluir: deixamos de ser os “escritores” manuais de cada nota isolada para nos tornarmos os “curadores” e Editores-Chefe de um ecossistema de conhecimento dinâmico. Prepare-se: a ideia de que você tem de escrever as suas próprias notas para as “aprender” está prestes a tornar-se obsoleta.

A Morte da Escrita Manual: O LLM como Compilador

A abordagem tradicional de tomar notas está a ser substituída pelo conceito de “compilar” uma wiki pessoal a partir de dados brutos. O fluxo de trabalho começa no ingest: utilizo o Obsidian Web Clipper para capturar artigos e um hotkey personalizado para descarregar todas as imagens localmente — um passo crítico para que os LLMs multimodais as possam referenciar com precisão.

Em vez de organizar pastas à mão, alimento um diretório raw/ com estes ficheiros, repositórios e imagens. O LLM atua então como um compilador, processando o caos para criar uma estrutura lógica de ficheiros Markdown, gerando resumos e categorizando conceitos de forma autónoma. Nesta nova realidade, a escrita manual é um erro de arredondamento.

“You rarely ever write or edit the wiki manually, it’s the domain of the LLM.”

Adeus, RAG Complexo: A Eficiência da Auto-Indexação

Muitos projetos de IA perdem-se em infraestruturas pesadas de RAG (Retrieval-Augmented Generation) e bases de dados vetoriais. No entanto, para uma base de conhecimento pessoal de escala média — cerca de 400.000 palavras ou 100 artigos densos — a simplicidade vence a engenharia complexa.

Os LLMs modernos, com as suas context windows (janelas de contexto) cada vez maiores, são perfeitamente capazes de realizar uma auto-indexação. A IA mantém ficheiros de índice e resumos breves de todos os documentos, navegando pela informação de forma orgânica. A menos que esteja a lidar com bibliotecas de nível empresarial, um sistema de ficheiros bem estruturado e um agente inteligente são mais do que suficientes para cruzar dados e encontrar padrões invisíveis ao olho humano.

O Ciclo de Feedback Infinito e o “Valor Composto”

Neste sistema, as consultas (queries) que fazemos à nossa base de conhecimento não são efémeras. Eu utilizo ferramentas de CLI (Command Line Interface) e um motor de busca interno “vibe coded” (desenvolvido rapidamente com auxílio de IA) para interpelar a wiki. A magia acontece aqui: as respostas não ficam no terminal.

Os outputs são renderizados diretamente no Obsidian em formatos visuais: apresentações em Marp, gráficos via matplotlib ou novos artigos Markdown. Estas explorações são “arquivadas” de volta na wiki, criando um efeito de interesse composto do conhecimento. Cada dúvida que retiro à IA torna-se uma peça permanente do puzzle, enriquecendo a base para a próxima pesquisa.

A IA como Auditora de Qualidade

Tal como um programador utiliza um linter para garantir a saúde do código, eu utilizo “health checks” de IA para auditar a integridade da minha wiki. Este não é um processo passivo; é uma manutenção ativa da qualidade do pensamento.

O LLM executa funções cruciais de integridade:

Rumo ao Conhecimento Sintetizado nos Pesos da Rede

O que começou como uma coleção de scripts hacky está a evoluir rapidamente para a visão de um novo produto revolucionário. À medida que o repositório cresce, enfrentamos o limite físico da janela de contexto — a nossa “memória de curto prazo” digital.

O próximo passo lógico é a transição para a geração de dados sintéticos e o fine-tuning. O objetivo é que o modelo não se limite a ler os seus ficheiros, mas que “conheça” a sua base de conhecimento de forma intrínseca, gravada nos seus próprios pesos neuronais (a sua “memória de longo prazo”).

A questão que se coloca é pragmática: prefere manter o controlo artesanal de cada palavra no seu bloco de notas, ou está pronto para assumir o papel de curador de uma inteligência que compreende os seus dados melhor do que você? A era do “escrever para lembrar” terminou; começou a era do “compilar para compreender”.