La IA no es una burbuja — es una carrera por el poder del cómputo.
⚡Noticia Última Hora: Nvidia ha anunciado que planea invertir hasta 100.000 millones de dólares en OpenAI para levantar megacentros de datos. No es hype: es una jugada de control de infraestructura.
🔑 Datos clave:
• Una expansión de 10 GW = entre 4 y 5 millones de GPUs
• Primer tramo: 10.000 millones cuando se complete el primer gigavatio
• La bolsa reaccionó: +4% Nvidia hoy = +170.000M $ en horas 📈
💡 Por qué importa: Quien controla el cómputo controla el stack de IA. El resultado: concentración de poder y beneficios en manos de muy pocos.
La ironía: la mayoría de usos de ChatGPT son básicos. 👉 75% de las conversaciones caen en 3 categorías:
- Escribir textos
- Buscar información
- Pedir orientación práctica
Estamos ante un flujo de capital billonario… ¿para qué? ¿Para avances disruptivos o solo para asegurar quién controla las tuberías?
⚡Noticia Última Hora: Nvidia ha anunciado que planea invertir hasta 100.000 millones de dólares en OpenAI para levantar megacentros de datos. No es hype: es una jugada de control de infraestructura.
🔑 Datos clave:
• Una expansión de 10 GW = entre 4 y 5 millones de GPUs
• Primer tramo: 10.000 millones cuando se complete el primer gigavatio
• La bolsa reaccionó: +4% Nvidia hoy = +170.000M $ en horas 📈
💡 Por qué importa: Quien controla el cómputo controla el stack de IA. El resultado: concentración de poder y beneficios en manos de muy pocos.
La ironía: la mayoría de usos de ChatGPT son básicos. 👉 75% de las conversaciones caen en 3 categorías:
- Escribir textos
- Buscar información
- Pedir orientación práctica
Estamos ante un flujo de capital billonario… ¿para qué? ¿Para avances disruptivos o solo para asegurar quién controla las tuberías?
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 La nueva app de Gemini para escritorio convierte tu ordenador en un asistente inteligente
¿Qué puedes hacer?
✨ Explicar cualquier cosa que tengas en pantalla
✨ Traducir o buscar dentro de imágenes
✨ Activar un “AI Mode” para búsquedas
✨ Encontrar cualquier archivo en segundos
✨ Y mucho más...
Lo mejor: no hablamos de un experimento. Está disponible ya gratis para Windows 10+ (cuentas personales).
Cómo activarlo:
1️⃣ Entra en Google Labs → “Google app for Windows”
2️⃣ Descarga e instala
3️⃣ Inicia sesión y listo
🔥 En otras palabras: el escritorio acaba de volverse nativamente inteligente.
¿Qué puedes hacer?
✨ Explicar cualquier cosa que tengas en pantalla
✨ Traducir o buscar dentro de imágenes
✨ Activar un “AI Mode” para búsquedas
✨ Encontrar cualquier archivo en segundos
✨ Y mucho más...
Lo mejor: no hablamos de un experimento. Está disponible ya gratis para Windows 10+ (cuentas personales).
Cómo activarlo:
1️⃣ Entra en Google Labs → “Google app for Windows”
2️⃣ Descarga e instala
3️⃣ Inicia sesión y listo
🔥 En otras palabras: el escritorio acaba de volverse nativamente inteligente.
👏4🔥2
Trading-R1: cuándo un LLM deja de escribir y empieza a razonar como un trader.
TRADING-R1 es un LLM de 4B parametros que presenta una forma práctica de convertir análisis en decisiones de mercado.
En lugar de confiar solo en texto largo o señales sueltas, el equipo construyó:
(1) una base de datos de 100k muestras financieras (Tauric-TR1-DB),
(2) una distilación inversa para recuperar cadenas de razonamiento de modelos comerciales y
(3) un currículo SFT → RFT que enseña estructura → evidencia → decisión.
¿Por qué importa?
- Produce thesis estructuradas y citadas, no solo “predicciones”. Eso mejora interpretabilidad y confianza.
- Usa etiquetas ajustadas por volatilidad y horizonte (3/7/15 días) para alinear recompensas con riesgo real, no con ruido momentáneo.
- Balancea rendimiento y riesgo: en backtest TRADING-R1 entrega retornos positivos con Sharpe elevado y drawdowns menores frente a varias alternativas. Eso lo hace útil como herramienta de research para equipos que quieren escalar análisis.
Lo que no es: un “sistema sin supervisión”. Tiene sesgos (blue-chip, periodo 2024–25) y requiere control humano para producción y gestión de riesgos. Úsalo como amplificador del analista, no como su reemplazo.
CTA: si trabajas en sell-side, buy-side o data-engineering y quieres probar un flujo que genera tesis, señal y explicaciones, échale un vistazo al paper (Tauric Research) y al repo del proyecto: https://arxiv.org/pdf/2509.11420
TRADING-R1 es un LLM de 4B parametros que presenta una forma práctica de convertir análisis en decisiones de mercado.
En lugar de confiar solo en texto largo o señales sueltas, el equipo construyó:
(1) una base de datos de 100k muestras financieras (Tauric-TR1-DB),
(2) una distilación inversa para recuperar cadenas de razonamiento de modelos comerciales y
(3) un currículo SFT → RFT que enseña estructura → evidencia → decisión.
¿Por qué importa?
- Produce thesis estructuradas y citadas, no solo “predicciones”. Eso mejora interpretabilidad y confianza.
- Usa etiquetas ajustadas por volatilidad y horizonte (3/7/15 días) para alinear recompensas con riesgo real, no con ruido momentáneo.
- Balancea rendimiento y riesgo: en backtest TRADING-R1 entrega retornos positivos con Sharpe elevado y drawdowns menores frente a varias alternativas. Eso lo hace útil como herramienta de research para equipos que quieren escalar análisis.
Lo que no es: un “sistema sin supervisión”. Tiene sesgos (blue-chip, periodo 2024–25) y requiere control humano para producción y gestión de riesgos. Úsalo como amplificador del analista, no como su reemplazo.
CTA: si trabajas en sell-side, buy-side o data-engineering y quieres probar un flujo que genera tesis, señal y explicaciones, échale un vistazo al paper (Tauric Research) y al repo del proyecto: https://arxiv.org/pdf/2509.11420
👍1🔥1
⬆️ Top 7 IA Open Source que puedes correr en tu ordenador gratis. Sin conexión. Sin compartir datos con nadie:
1. Qwen3 Coder 30B 3A: Para programa
2. Gemma 3n E4B: modelo pequeño y versátil. Puede ejecutarse en un teléfono
3. Magistral Small 1.2: multimodal con capacidades de visión.
4. Hermes 4 14B: Sin censura y responde a todas las preguntas que otros LLM rechazan
5. Jan-Nano: modelo “agéntico” para herramientas y automatizar
6.LFM2-VL 1.6B: pequeño y rápido con visión
7. Qwen Image Edit: una alternativa local a Nano Banana, aunque requiere mucha RAM unificada
1. Qwen3 Coder 30B 3A: Para programa
2. Gemma 3n E4B: modelo pequeño y versátil. Puede ejecutarse en un teléfono
3. Magistral Small 1.2: multimodal con capacidades de visión.
4. Hermes 4 14B: Sin censura y responde a todas las preguntas que otros LLM rechazan
5. Jan-Nano: modelo “agéntico” para herramientas y automatizar
6.LFM2-VL 1.6B: pequeño y rápido con visión
7. Qwen Image Edit: una alternativa local a Nano Banana, aunque requiere mucha RAM unificada
🔥3👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Google empieza a filtrar GEMINI 3.0 y es absolutamente increíble.
🔥Truco para probarlo: Ve a google AI studio, spamea tu prompt muchas veces hasta que salga el A/B testing, y allí lo tendrás!
Puede que sean otros modelos? sí, pero los resultados son tan buenos que se especula que el A/B testing es gemini 3. Todo este tipo de pruebas, en código, parece arrasar con cualquier otro modelo actual disponible.
🔥Truco para probarlo: Ve a google AI studio, spamea tu prompt muchas veces hasta que salga el A/B testing, y allí lo tendrás!
Puede que sean otros modelos? sí, pero los resultados son tan buenos que se especula que el A/B testing es gemini 3. Todo este tipo de pruebas, en código, parece arrasar con cualquier otro modelo actual disponible.
👍1
Después de casi un año perfeccionando mi sistema te voy a mostrar exactamente cómo he construido mi ejercito de Asistentes IA y cómo puedes construir tú el tuyo.
Con esta Guía aprenderás a crear tu propio asistente con LLMs, y empezar a usarlo para obtener resultados adaptado a tus necesidades:
- Tomar decisiones estratégicas: ver ángulos que no habías considerado y detectar sesgos de confirmación.
- Guiar tu negocio: priorizar qué construir primero y visualizar escenarios alternativos.
- Ahorrar horas en documentación y contenido: producir briefings, propuestas y contenido en tu tono y estilo en minutos.
- Convertir caos en planes claros: transformar notas desordenadas o ideas vagas en un plan de acción de 30-90 días adaptado a tu negocio.
- Multiplicar tu creatividad: mejorar ideas mediocres, buscar ángulos contrarios y romper bloqueos creativos.
link: https://substack.com/home/post/p-173683012
Con esta Guía aprenderás a crear tu propio asistente con LLMs, y empezar a usarlo para obtener resultados adaptado a tus necesidades:
- Tomar decisiones estratégicas: ver ángulos que no habías considerado y detectar sesgos de confirmación.
- Guiar tu negocio: priorizar qué construir primero y visualizar escenarios alternativos.
- Ahorrar horas en documentación y contenido: producir briefings, propuestas y contenido en tu tono y estilo en minutos.
- Convertir caos en planes claros: transformar notas desordenadas o ideas vagas en un plan de acción de 30-90 días adaptado a tu negocio.
- Multiplicar tu creatividad: mejorar ideas mediocres, buscar ángulos contrarios y romper bloqueos creativos.
link: https://substack.com/home/post/p-173683012
Substack
Crea tu ejercito de Asistentes IA
Te enseño mi método para ahorrar +30h al mes creando tus Asistentes IA personalizados.
🔥5👏1
Claude acaba de actualizar su modelo Haiku 4.5 y es una gran noticia por esto:
🐤 El nuevo modelo “pequeño” de Anthropic tiene 90% del rendimiento de Sonnet 4.5 en coding (Augment).
💲Cuesta $1/$5 por M de tokens, 66% menos que Sonnet 4.
🚀 Es 4-5x más rápido, ideal para chatbots, customer service y pair programming.
◾Por qué es importante?
Supera a Sonnet 4 en control de UI y navegación. Más alineado (ASL-2). Disponible ya en API, Claude Code, Bedrock y Vertex AI. Tareas que antes necesitaban Sonnet 4 ahora corren 2x más rápido a 1/3 del costo
🐤 El nuevo modelo “pequeño” de Anthropic tiene 90% del rendimiento de Sonnet 4.5 en coding (Augment).
💲Cuesta $1/$5 por M de tokens, 66% menos que Sonnet 4.
🚀 Es 4-5x más rápido, ideal para chatbots, customer service y pair programming.
◾Por qué es importante?
Supera a Sonnet 4 en control de UI y navegación. Más alineado (ASL-2). Disponible ya en API, Claude Code, Bedrock y Vertex AI. Tareas que antes necesitaban Sonnet 4 ahora corren 2x más rápido a 1/3 del costo
"La IA no te quitará el trabajo pero alguien que sepa utilizarla SÌ" ❌ FALSO
La IA no es que te vaya a quitar el trabajo es que está reconfigurando sistemas completos.
Tienes que entender que tu ventaja no es simplemente ser un usuario de IA, ya que este se va a convertir en una "comodity".
La ventaja está en ser capaz de rediseñar el juego donde otros siguen reglas viejas.
Link: https://aimafia.substack.com/p/la-ia-no-quitara-trabajo
La IA no es que te vaya a quitar el trabajo es que está reconfigurando sistemas completos.
Tienes que entender que tu ventaja no es simplemente ser un usuario de IA, ya que este se va a convertir en una "comodity".
La ventaja está en ser capaz de rediseñar el juego donde otros siguen reglas viejas.
Link: https://aimafia.substack.com/p/la-ia-no-quitara-trabajo
Substack
La Gran Mentira de: "La IA no te quitará tu trabajo, pero alguien que sepa usarla Sí"
Las 7 grandes mentiras de la IA y el futuro del trabajo.
👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Curso GRATUITO: Domina MCP en español (de Microsoft):
➥ Levanta un servidor MCP ➥ Conecta tu LLM a APIs/BD/archivos ➥Define tools con permisos ➥ añade logs/seguridad ➥ monta un mini-SaaS en horas.
Los MCP son las manos de la IA 🙌
Si los dominas, tu asistente IA deja de “responder” y empieza a ACTUAR.
-
PD: Si cualquier gurú de la IA montara un curso de esta calidad te iba a cobrar varios x100 de €. No lo infravalores por ser gratis y aprovéchalo! ;)
🔗 Guarda/comparte para luego: https://github.com/microsoft/mcp-for-beginners/blob/main/translations/es/README.md
➥ Levanta un servidor MCP ➥ Conecta tu LLM a APIs/BD/archivos ➥Define tools con permisos ➥ añade logs/seguridad ➥ monta un mini-SaaS en horas.
Los MCP son las manos de la IA 🙌
Si los dominas, tu asistente IA deja de “responder” y empieza a ACTUAR.
-
PD: Si cualquier gurú de la IA montara un curso de esta calidad te iba a cobrar varios x100 de €. No lo infravalores por ser gratis y aprovéchalo! ;)
🔗 Guarda/comparte para luego: https://github.com/microsoft/mcp-for-beginners/blob/main/translations/es/README.md
👏6👍2🔥2
El lanzamiento más importante de esta semana NO fue GPT-5.1. 👀
Un modelo open-source chino, Kimi K2 Thinking (Moonshot), acaba de superarlo en benchmarks de razonamiento, cuesta un orden de magnitud menos y cualquiera puede usarlo.
Qué hace diferente a K2
Mientras muchos modelos “clásicos” responden directo a la pregunta, K2 hace otra cosa: piensa en voz alta. Sigue un bucle tipo:
Research → Analyze → Verify → Adjust → Refine
Ese ciclo le permite:
- Detectar sus propios errores
- Corregirse sobre la marcha
- Mantener el contexto durante cientos de pasos y tool calls
Resultado: menos respuestas genéricas, más decisiones accionables.
Ejemplo real (compitiendo contra GPT-5.1): Validar una nueva feature para una herramienta de monitorización de competidores.
GPT-5.1
↳ Puntúa las ideas en una escala 1–5
↳ Propone “añadir un feed para seguir a la competencia”
↳ Respuesta correcta… pero muy abstracta
K2 Thinking
↳ Se apoya en datos reales de usuarios
↳ Estima esfuerzo en meses de desarrollo
↳ Tiene en cuenta la complejidad de go-to-market
Es decir: no solo “contesta”, se comporta más como un PM / founder que como un chatbot.
Por qué esto importa si trabajas con IA
☑ El “DeepSeek moment” se repite: un modelo open-source que iguala o supera a modelos cerrados top en razonamiento.
☑ El coste por millón de tokens es varias veces menor que GPT-5.x / Claude, lo que cambia por completo la economía de agentes y workflows largos.
☑ La ventaja competitiva deja de estar en “qué modelo usas” y pasa a cómo diseñas el sistema que lo rodea.
Un modelo open-source chino, Kimi K2 Thinking (Moonshot), acaba de superarlo en benchmarks de razonamiento, cuesta un orden de magnitud menos y cualquiera puede usarlo.
Qué hace diferente a K2
Mientras muchos modelos “clásicos” responden directo a la pregunta, K2 hace otra cosa: piensa en voz alta. Sigue un bucle tipo:
Research → Analyze → Verify → Adjust → Refine
Ese ciclo le permite:
- Detectar sus propios errores
- Corregirse sobre la marcha
- Mantener el contexto durante cientos de pasos y tool calls
Resultado: menos respuestas genéricas, más decisiones accionables.
Ejemplo real (compitiendo contra GPT-5.1): Validar una nueva feature para una herramienta de monitorización de competidores.
GPT-5.1
↳ Puntúa las ideas en una escala 1–5
↳ Propone “añadir un feed para seguir a la competencia”
↳ Respuesta correcta… pero muy abstracta
K2 Thinking
↳ Se apoya en datos reales de usuarios
↳ Estima esfuerzo en meses de desarrollo
↳ Tiene en cuenta la complejidad de go-to-market
Es decir: no solo “contesta”, se comporta más como un PM / founder que como un chatbot.
Por qué esto importa si trabajas con IA
☑ El “DeepSeek moment” se repite: un modelo open-source que iguala o supera a modelos cerrados top en razonamiento.
☑ El coste por millón de tokens es varias veces menor que GPT-5.x / Claude, lo que cambia por completo la economía de agentes y workflows largos.
☑ La ventaja competitiva deja de estar en “qué modelo usas” y pasa a cómo diseñas el sistema que lo rodea.
👍5🔥2👏1
Media is too big
VIEW IN TELEGRAM
Nano Banana Pro es una auténtica locura.
Puedes darle coordenadas y una hora específica y viajará en el tiempo.
✨ Ejemplo prompt: "Crea una imagen que corresponda con el momento siguiente: 31.7785° N, 35.2296° E, April 3, 33 CE, 15:00 hours"
Puedes darle coordenadas y una hora específica y viajará en el tiempo.
✨ Ejemplo prompt: "Crea una imagen que corresponda con el momento siguiente: 31.7785° N, 35.2296° E, April 3, 33 CE, 15:00 hours"
🔥3😱2
Google acaba de publicar uno de esos papers que pueden revolucionar el mundo una vez más. 💣💥
🔑 - Algo muy grande que podría ser la llave que de paso al AGI igual que "Attention Is All You Need" dio paso a la IA.
Paper: "Nested Learning: The Illusion of Deep Learning Architectures" → NeurIPS 2025
El problema central: Los LLMs actuales sufren de "olvido catastrófico". Aprenden en el entrenamiento, pero después quedan congelados. Cada cosa nueva que incorporan puede borrar lo anterior. Es como tratar la amnesia con un bloc de notas más grande.
La idea disruptiva: Arquitectura y optimización no son cosas separadas → son diferentes niveles del mismo sistema. Los optimizadores (Adam, SGD) no solo actualizan pesos; funcionan como módulos de memoria asociativa.
Nested Learning propone:
↳ Ver el modelo como problemas de optimización anidados, cada uno con su flujo de información y velocidad de actualización
↳ Inspiración directa del cerebro: circuitos rápidos procesan el presente, los lentos consolidan patrones a largo plazo
↳ Continuum Memory System (CMS): no "memoria corta vs larga", sino un espectro continuo de retención.
HOPE: la arquitectura proof-of-concept:
→ Auto-modificable: ajusta sus propias reglas de aprendizaje mientras procesa
→ Construida sobre Titans (memoriza eventos "sorprendentes")
→ Múltiples niveles de actualización operando en paralelo
Resultados (340M a 1.3B parámetros):
✓ Menor perplejidad y mayor precisión en razonamiento vs Transformers estándar
✓ Superior en tareas Needle-in-a-Haystack (encontrar info específica en contextos masivos)
✓ Mejor retención sin sacrificar adaptabilidad
Por qué importa:
Si escala, abre la puerta a modelos que mejoran con el uso, incorporan conocimiento nuevo sin olvidar, y se acercan al aprendizaje continuo real del cerebro humano.
Eso sí: es proof-of-concept. Queda por ver cómo se comporta a mayor escala y en producción.
🔑 - Algo muy grande que podría ser la llave que de paso al AGI igual que "Attention Is All You Need" dio paso a la IA.
Paper: "Nested Learning: The Illusion of Deep Learning Architectures" → NeurIPS 2025
El problema central: Los LLMs actuales sufren de "olvido catastrófico". Aprenden en el entrenamiento, pero después quedan congelados. Cada cosa nueva que incorporan puede borrar lo anterior. Es como tratar la amnesia con un bloc de notas más grande.
La idea disruptiva: Arquitectura y optimización no son cosas separadas → son diferentes niveles del mismo sistema. Los optimizadores (Adam, SGD) no solo actualizan pesos; funcionan como módulos de memoria asociativa.
Nested Learning propone:
↳ Ver el modelo como problemas de optimización anidados, cada uno con su flujo de información y velocidad de actualización
↳ Inspiración directa del cerebro: circuitos rápidos procesan el presente, los lentos consolidan patrones a largo plazo
↳ Continuum Memory System (CMS): no "memoria corta vs larga", sino un espectro continuo de retención.
HOPE: la arquitectura proof-of-concept:
→ Auto-modificable: ajusta sus propias reglas de aprendizaje mientras procesa
→ Construida sobre Titans (memoriza eventos "sorprendentes")
→ Múltiples niveles de actualización operando en paralelo
Resultados (340M a 1.3B parámetros):
✓ Menor perplejidad y mayor precisión en razonamiento vs Transformers estándar
✓ Superior en tareas Needle-in-a-Haystack (encontrar info específica en contextos masivos)
✓ Mejor retención sin sacrificar adaptabilidad
Por qué importa:
Si escala, abre la puerta a modelos que mejoran con el uso, incorporan conocimiento nuevo sin olvidar, y se acercan al aprendizaje continuo real del cerebro humano.
Eso sí: es proof-of-concept. Queda por ver cómo se comporta a mayor escala y en producción.
🤔3👍1
🍌+500 Nano Banana Pro Prompts:
Recopilación open-source con +500 prompts preparados para Nano Banana Pro.Multilenguaje, ejemplos con imagen y galería instantánea para ver el resultado antes de usarlo. Si generas visuales, esto te ahorra horas de prueba y error.
Link: https://github.com/YouMind-OpenLab/awesome-nano-banana-pro-prompts
Recopilación open-source con +500 prompts preparados para Nano Banana Pro.Multilenguaje, ejemplos con imagen y galería instantánea para ver el resultado antes de usarlo. Si generas visuales, esto te ahorra horas de prueba y error.
Link: https://github.com/YouMind-OpenLab/awesome-nano-banana-pro-prompts
🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
◾¿Por qué este vídeo se ha hecho viral? Vivimos en el futuro, te guste o no, así que tienes que entender que estás cosas son posibles.
🔗 Link: https://geospy.ai/
Please open Telegram to view this post
VIEW IN TELEGRAM
😱2
Por cosas como esta HOY es el mejor momento de la historia para emprender
Google ha lanzado un ecosistema completo de herramientas gratuitas impulsadas por Gemini 3 Pro que superan en muchos benchmarks a la competencia y democratizan capacidades que antes costaban miles de euros al mes.
Hablamos de:
- Desarrollo de apps y código autónomo con Antigravity (adiós Cursor y ChatGPT Plus).
- Generación de imágenes profesionales perfectas con Nano Banana Pro.
- Análisis de documentos masivos y creación automática de presentaciones con NotebookLM.
- Y mucho más: desde campañas de marketing inteligentes hasta edición avanzada de vídeo.
¿Por qué esto importa?
Google no solo lidera la IA, sino que la pone al alcance de cualquier negocio sin necesidad de grandes inversiones. El futuro de la productividad acaba de cambiar... y es gratis.
https://aimafia.substack.com/p/google-ia
Google ha lanzado un ecosistema completo de herramientas gratuitas impulsadas por Gemini 3 Pro que superan en muchos benchmarks a la competencia y democratizan capacidades que antes costaban miles de euros al mes.
Hablamos de:
- Desarrollo de apps y código autónomo con Antigravity (adiós Cursor y ChatGPT Plus).
- Generación de imágenes profesionales perfectas con Nano Banana Pro.
- Análisis de documentos masivos y creación automática de presentaciones con NotebookLM.
- Y mucho más: desde campañas de marketing inteligentes hasta edición avanzada de vídeo.
¿Por qué esto importa?
Google no solo lidera la IA, sino que la pone al alcance de cualquier negocio sin necesidad de grandes inversiones. El futuro de la productividad acaba de cambiar... y es gratis.
https://aimafia.substack.com/p/google-ia
Substack
🟠 Herramientas gratuitas IA de Google + Cómo usarlas en tu negocio
Guía definitiva y prompts para Gemini 3, Nano Banana Pro, Antigravity, NotebookLLm
🔥5👏2
This media is not supported in your browser
VIEW IN TELEGRAM
Google acaba de regalar algo por lo que otros cobran miles de euros. 🎁
Una plataforma completa de aprendizaje IA. Gratis.
¿Qué incluye?
→ Prompt engineering
→ Diseño de modelos
→ IA en healthcare
→ Product thinking con IA
→ Y un catálogo que seguirá creciendo
Lo mejor:
▪️Dashboard para trackear progreso + retomar cualquier curso con un clic.
▪️Nada de "compra mi curso de 997€ para aprender IA".
Mi opinión:
¿Es perfecto? No. ¿Es un buen punto de partida si quieres dominar IA sin gastarte una fortuna? Absolutamente.
⛓️💥link: skills.google
Una plataforma completa de aprendizaje IA. Gratis.
¿Qué incluye?
→ Prompt engineering
→ Diseño de modelos
→ IA en healthcare
→ Product thinking con IA
→ Y un catálogo que seguirá creciendo
Lo mejor:
▪️Dashboard para trackear progreso + retomar cualquier curso con un clic.
▪️Nada de "compra mi curso de 997€ para aprender IA".
Mi opinión:
¿Es perfecto? No. ¿Es un buen punto de partida si quieres dominar IA sin gastarte una fortuna? Absolutamente.
⛓️💥link: skills.google
Please open Telegram to view this post
VIEW IN TELEGRAM
👏7🔥2
Media is too big
VIEW IN TELEGRAM
¿Os imagináis cuánto hubiera costado crear este obra hace tan solo 1 año sin la IA que tenemos hoy?
Probablemente 10 veces más que el anuncio más caro de la Super Bowl de la historia... Aunque lo más seguro es que no hay forma de que esto se pudiera haber creado sin IA.
Así que ¿Cuál será el límite creativo de mañana?
Probablemente 10 veces más que el anuncio más caro de la Super Bowl de la historia... Aunque lo más seguro es que no hay forma de que esto se pudiera haber creado sin IA.
Así que ¿Cuál será el límite creativo de mañana?
🔥2👏1