May 24, 2025

[tns] S2E4 - LLMs 2/5 - Under the hood

[tns] S2E4 - LLMs 2/5 - Under the hood

Keywords


TNS Project, LLMs, Neural Networks, Transformers, OpenAI, Tokens, Foundation Models, RAG, Fine-Tuning, Alan Turing


En esta conversación, Aldrin Leal profundiza en el funcionamiento de los Modelos de Lenguaje Grande (LLM). Comparte conocimientos desde sus experiencias personales de aprendizaje, aspectos técnicos de los LLM y la evolución de estos modelos, centrándose especialmente en las redes neuronales y los transformadores. La discusión también aborda la importancia de los tokens, los modelos de base y los métodos para mejorar los LLM a través de la generación aumentada por recuperación (RAG) y el ajuste fino. Además, Aldrin analiza las limitaciones y barreras de los LLM y concluye con una reflexión sobre la herencia de Alan Turing en el campo de la informática.

Meta AI Response: En esta conversación, Aldrin Leal profundiza en el funcionamiento de los Modelos de Lenguaje Grande (LLM). Comparte conocimientos desde sus experiencias personales de aprendizaje, aspectos técnicos de los LLM y la evolución de estos modelos, centrándose especialmente en las redes neuronales y los transformadores. La discusión también aborda la importancia de los tokens, los modelos de base y los métodos para mejorar los LLM a través de la generación aumentada por recuperación (RAG) y el ajuste fino. Además, Aldrin analiza las limitaciones y barreras de los LLM y concluye con una reflexión sobre la herencia de Alan Turing en el campo de la informática.


Chapters


00:00 Introduction to the TNS Project

01:27 Exploring LLMs and Personal Learning Journey

05:02 Technical Insights into LLMs

10:25 Understanding Neural Networks and Transformers

15:35 The Evolution of LLMs and OpenAI

20:43 Tokens and Model Capacity

25:22 Connecting to Foundation Models

30:41 Enhancing LLMs with RAG and Fine-Tuning

33:55 Limitations and Guardrails of LLMs

39:13 The Legacy of Alan Turing