Hemos probado el nuevo modo IA de Google: es una bala directa a los enlaces azules que inquieta y emociona a partes iguales
https://www.xataka.com/robotica-e-ia/hemos-probado-nuevo-modo-ia-google-bala-directa-a-enlaces-azules-que-inquieta-emociona-a-partes-iguales
@todoIA
https://www.xataka.com/robotica-e-ia/hemos-probado-nuevo-modo-ia-google-bala-directa-a-enlaces-azules-que-inquieta-emociona-a-partes-iguales
@todoIA
Xataka
Hemos probado el nuevo modo IA de Google: es una bala directa a los enlaces azules que inquieta y emociona a partes iguales
El Google I/O de este año nos ha dejado con perlas muy interesantes, sobre todo en lo que a inteligencia artificial se refiere. Está claro que Gemini ha sido...
Los docentes ante el desafío de una tecnología que nadie se esperaba, y que los interpela
https://www.lanacion.com.ar/tecnologia/los-docentes-ante-el-desafio-de-una-tecnologia-que-nadie-se-esperaba-y-que-los-interpela-nid22052025/
@todoIA
https://www.lanacion.com.ar/tecnologia/los-docentes-ante-el-desafio-de-una-tecnologia-que-nadie-se-esperaba-y-que-los-interpela-nid22052025/
@todoIA
LA NACION
Los docentes ante el desafío de una tecnología que nadie se esperaba, y que los interpela
Los modelos generativos se volvieron asunto cotidiano de un día para el otro, en una escala histórica, y la educación, salvo excepciones, todavía necesita orientarse (de nuevo)
Lp-Convolution, un avance revolucionario en la visión artificial inspirado en el cerebro humano
Un equipo de investigadores del Instituto de Ciencia Básica (IBS), la Universidad Yonsei y el Instituto Max Planck ha presentado en ICLR 2025 una innovadora técnica llamada Lp-Convolution. Este método busca acercar la visión de las máquinas a la forma en que el cerebro humano procesa la información visual, abordando un problema crítico en la investigación de la IA: la eficiencia y la capacidad de reconocimiento en entornos complejos.
Lp-Convolution es una técnica que mejora la forma en que los modelos de redes neuronales convolucionales (CNNs) procesan imágenes. A diferencia de los filtros fijos y cuadrados utilizados en CNNs tradicionales, Lp-Convolution permite que los filtros se adapten dinámicamente a la tarea, estirándose horizontal o verticalmente según sea necesario. Este enfoque se inspira en la forma en que el córtex visual del cerebro humano selecciona y enfoca en detalles relevantes dentro de escenas complejas.
Este avance resuelve un problema persistente en la IA: el problema de los núcleos grandes. Aumentar el tamaño de los filtros en CNNs no siempre mejora el rendimiento, a pesar de agregar más parámetros. Lp-Convolution supera esta limitación al introducir patrones de conectividad inspirados en la biología, permitiendo que los modelos sean más eficientes y potentes al mismo tiempo.
Resultados y aplicaciones
En pruebas con conjuntos de datos estándar como CIFAR-100 y TinyImageNet, el método mejoró significativamente la precisión de modelos clásicos como AlexNet y arquitecturas modernas como RepLKNet. Además, mostró una alta resistencia a datos corruptos, un desafío importante en aplicaciones reales de IA.
Los investigadores también descubrieron que, cuando las máscaras Lp usadas en su método se asemejan a una distribución gaussiana, los patrones de procesamiento internos del modelo coinciden con la actividad de las neuronas en el cerebro de ratas, lo que sugiere una alineación biológica real.
Este descubrimiento podría tener un impacto significativo en múltiples campos, desde la visión artificial hasta la neurociencia computacional. El método ofrece una alternativa práctica y eficiente a las Vision Transformers (ViTs), que, aunque más precisas, requieren un gran poder computacional y grandes conjuntos de datos.
Según el director del Centro de Cognición y Socialidad del IBS, Dr. C. Justin Lee, *"Lp-Convolution imita la capacidad humana de identificar rápidamente lo que importa en una escena compleja, lo que permite que la IA se enfoque en las partes más relevantes de una imagen, tal como lo hace el cerebro."*
El equipo planea continuar refinando la tecnología, explorando su aplicación en tareas más complejas, como el razonamiento en tiempo real y el procesamiento de imágenes en entornos dinámicos.
Lp-Convolution representa un paso significativo hacia una IA más eficiente, adaptable y cercana a la biología humana. Este avance no solo mejora la visión artificial, sino que también abre nuevas posibilidades para la convergencia entre la inteligencia artificial y la neurociencia, posiblemente sentando las bases para futuras innovaciones en el procesamiento de información y la simulación de la cognición humana.
Fuente:
“Brain-inspired Lp-Convolution benefits large kernels and aligns better with visual cortex” por Jea Kwon, Sungjun Lim, Kyungwoo Song y C. Justin Lee, 11 de marzo de 2025, ICLR 2025.
Código disponible en: https://github.com/jeakwon/lpconv
Un equipo de investigadores del Instituto de Ciencia Básica (IBS), la Universidad Yonsei y el Instituto Max Planck ha presentado en ICLR 2025 una innovadora técnica llamada Lp-Convolution. Este método busca acercar la visión de las máquinas a la forma en que el cerebro humano procesa la información visual, abordando un problema crítico en la investigación de la IA: la eficiencia y la capacidad de reconocimiento en entornos complejos.
Lp-Convolution es una técnica que mejora la forma en que los modelos de redes neuronales convolucionales (CNNs) procesan imágenes. A diferencia de los filtros fijos y cuadrados utilizados en CNNs tradicionales, Lp-Convolution permite que los filtros se adapten dinámicamente a la tarea, estirándose horizontal o verticalmente según sea necesario. Este enfoque se inspira en la forma en que el córtex visual del cerebro humano selecciona y enfoca en detalles relevantes dentro de escenas complejas.
Este avance resuelve un problema persistente en la IA: el problema de los núcleos grandes. Aumentar el tamaño de los filtros en CNNs no siempre mejora el rendimiento, a pesar de agregar más parámetros. Lp-Convolution supera esta limitación al introducir patrones de conectividad inspirados en la biología, permitiendo que los modelos sean más eficientes y potentes al mismo tiempo.
Resultados y aplicaciones
En pruebas con conjuntos de datos estándar como CIFAR-100 y TinyImageNet, el método mejoró significativamente la precisión de modelos clásicos como AlexNet y arquitecturas modernas como RepLKNet. Además, mostró una alta resistencia a datos corruptos, un desafío importante en aplicaciones reales de IA.
Los investigadores también descubrieron que, cuando las máscaras Lp usadas en su método se asemejan a una distribución gaussiana, los patrones de procesamiento internos del modelo coinciden con la actividad de las neuronas en el cerebro de ratas, lo que sugiere una alineación biológica real.
Este descubrimiento podría tener un impacto significativo en múltiples campos, desde la visión artificial hasta la neurociencia computacional. El método ofrece una alternativa práctica y eficiente a las Vision Transformers (ViTs), que, aunque más precisas, requieren un gran poder computacional y grandes conjuntos de datos.
Según el director del Centro de Cognición y Socialidad del IBS, Dr. C. Justin Lee, *"Lp-Convolution imita la capacidad humana de identificar rápidamente lo que importa en una escena compleja, lo que permite que la IA se enfoque en las partes más relevantes de una imagen, tal como lo hace el cerebro."*
El equipo planea continuar refinando la tecnología, explorando su aplicación en tareas más complejas, como el razonamiento en tiempo real y el procesamiento de imágenes en entornos dinámicos.
Lp-Convolution representa un paso significativo hacia una IA más eficiente, adaptable y cercana a la biología humana. Este avance no solo mejora la visión artificial, sino que también abre nuevas posibilidades para la convergencia entre la inteligencia artificial y la neurociencia, posiblemente sentando las bases para futuras innovaciones en el procesamiento de información y la simulación de la cognición humana.
Fuente:
“Brain-inspired Lp-Convolution benefits large kernels and aligns better with visual cortex” por Jea Kwon, Sungjun Lim, Kyungwoo Song y C. Justin Lee, 11 de marzo de 2025, ICLR 2025.
Código disponible en: https://github.com/jeakwon/lpconv
GitHub
GitHub - jeakwon/lpconv
Contribute to jeakwon/lpconv development by creating an account on GitHub.
Google Muestra Anuncios en Modo IA: ¿Confían los Usuarios en Este Cambio?
https://gptzone.net/noticias/google-muestra-anuncios-en-modo-ia/
@todoIA
https://gptzone.net/noticias/google-muestra-anuncios-en-modo-ia/
@todoIA
GptZone
Google Muestra Anuncios en Modo IA: ¿Confían los Usuarios en Este Cambio?
Los anuncios en el Modo IA del buscador de Google, ya aparecen integrados en respuestas. Conoce cómo la IA cambiará tus búsquedas y explora los datos recientes.
Anthropic lanza Claude Opus 4 y Claude Sonnet 4: modelos de IA avanzados para codificación y razonamiento
Anthropic ha presentado dos nuevos modelos de IA, Claude Opus 4 y Claude Sonnet 4, diseñados para mejorar la codificación y el razonamiento. Claude Opus 4 se posiciona como el modelo más potente de la empresa, capaz de realizar tareas complejas durante varias horas y superando a modelos como Gemini 2.5 Pro, o3 reasoning y GPT-4.1 en pruebas de codificación. Por otro lado, Claude Sonnet 4 es una versión más asequible y eficiente, ideal para tareas generales, y mejora en precisión y almacenamiento de información a largo plazo. Ambos modelos incluyen nuevas funciones como *thinking summaries* y *extended thinking* en beta. Los modelos están disponibles en plataformas como Amazon Bedrock y Google Cloud, y los usuarios pagos tendrán acceso a la función *extended thinking*. Los usuarios gratuitos solo pueden acceder a Claude Sonnet 4.
Fuente: https://www.theverge.com/news/672705/anthropic-claude-4-ai-ous-sonnet-availability
@todoIA
Anthropic ha presentado dos nuevos modelos de IA, Claude Opus 4 y Claude Sonnet 4, diseñados para mejorar la codificación y el razonamiento. Claude Opus 4 se posiciona como el modelo más potente de la empresa, capaz de realizar tareas complejas durante varias horas y superando a modelos como Gemini 2.5 Pro, o3 reasoning y GPT-4.1 en pruebas de codificación. Por otro lado, Claude Sonnet 4 es una versión más asequible y eficiente, ideal para tareas generales, y mejora en precisión y almacenamiento de información a largo plazo. Ambos modelos incluyen nuevas funciones como *thinking summaries* y *extended thinking* en beta. Los modelos están disponibles en plataformas como Amazon Bedrock y Google Cloud, y los usuarios pagos tendrán acceso a la función *extended thinking*. Los usuarios gratuitos solo pueden acceder a Claude Sonnet 4.
Fuente: https://www.theverge.com/news/672705/anthropic-claude-4-ai-ous-sonnet-availability
@todoIA
The Verge
Anthropic’s Claude 4 AI models are better at coding and reasoning
Opus and Sonnet got an upgrade.
Claude, la IA favorita de los desarrolladores, lanza las nuevas versiones de sus modelos: trabaja hasta 7 horas sin perder contexto
https://www.genbeta.com/inteligencia-artificial/claude-ia-favorita-desarrolladores-lanza-nuevas-versiones-sus-modelos-trabaja-7-horas-perder-contexto
@todoIA
https://www.genbeta.com/inteligencia-artificial/claude-ia-favorita-desarrolladores-lanza-nuevas-versiones-sus-modelos-trabaja-7-horas-perder-contexto
@todoIA
Genbeta
Claude, la IA favorita de los desarrolladores, lanza las nuevas versiones de sus modelos: promete trabajar sola hasta 7 horas
El 2025 marca un hito clave en la evolución de la inteligencia artificial con el lanzamiento de su nueva generación de modelos desarrollados por la startup...
Google lanza su modelo de IA musical Lyria RealTime a través de una API: crea, mezcla y controla canciones con precisión
https://wwwhatsnew.com/2025/05/23/google-lanza-su-modelo-de-ia-musical-lyria-realtime-a-traves-de-una-api-crea-mezcla-y-controla-canciones-con-precision/
@todoIA
https://wwwhatsnew.com/2025/05/23/google-lanza-su-modelo-de-ia-musical-lyria-realtime-a-traves-de-una-api-crea-mezcla-y-controla-canciones-con-precision/
@todoIA
WWWhat's new
Google lanza su modelo de IA musical Lyria RealTime a través de una API: crea, mezcla y controla canciones con precisión
La música generada por inteligencia artificial sigue ganando protagonismo, y esta vez Google da un paso firme para posicionarse en el escenario. En el marco del evento Google I/O 2025, se presentó una novedad destacada: Lyria RealTime, el modelo de IA detrás…
Jon Hernández, divulgador sobre Inteligencia Artificial: “Esta es la nueva IA que te permitirá hacer trampas en todo. Además, es invisible y nadie se podrá dar cuenta de que la estás utilizando”
https://www.lavanguardia.com/neo/20250523/10680015/jon-hernandez-divulgador-sobre-inteligencia-artificial-nueva-ia-te-permitira-trampas-invisible-nadie-podra-dar-cuenta-estas-utilizando-pvlv.html
@todoIA
https://www.lavanguardia.com/neo/20250523/10680015/jon-hernandez-divulgador-sobre-inteligencia-artificial-nueva-ia-te-permitira-trampas-invisible-nadie-podra-dar-cuenta-estas-utilizando-pvlv.html
@todoIA
La Vanguardia
Jon Hernández, divulgador sobre Inteligencia Artificial: “Esta es la nueva IA que te permitirá hacer trampas en todo. Además, es…
La irrupción de Cluely en el panorama tecnológico ha encendido las alarmas en el ámbito laboral. Esta aplicación, concebida por el estudiante de Columbia Chungin Roy
La inteligencia artificial redefine la guerra
https://www.lavanguardia.com/internacional/20250523/10706115/inteligencia-artificial-entra-combate-drones-algoritmos-startups-guerra.html
@todoIA
https://www.lavanguardia.com/internacional/20250523/10706115/inteligencia-artificial-entra-combate-drones-algoritmos-startups-guerra.html
@todoIA
La Vanguardia
La inteligencia artificial entra en combate: drones, algoritmos y startups para la guerra
Algoritmos, drones y las compañías que transforman los conflictos
Claude 4, la nueva IA de Anthropic, amenazó a sus ingenieros con difundir su información privada si se atrevían a desconectarlo
https://www.genbeta.com/inteligencia-artificial/claude-4-nueva-ia-anthropic-amenazo-a-sus-ingenieros-difundir-su-informacion-privada-se-atrevian-a-desconectarlo
@todoIA
https://www.genbeta.com/inteligencia-artificial/claude-4-nueva-ia-anthropic-amenazo-a-sus-ingenieros-difundir-su-informacion-privada-se-atrevian-a-desconectarlo
@todoIA
Genbeta
Claude 4, la nueva IA de Anthropic, amenazó a sus ingenieros con difundir su información privada si se atrevían a desconectarlo
Como te contábamos ayer, Anthropic acaba de presentar dos nuevas versiones de su familia de modelos de lenguaje: Claude Opus 4 y Claude Sonnet 4. Estas IAs...
Gemini se adelanta: 8 funciones que ChatGPT aún no puede ofrecer
https://wwwhatsnew.com/2025/05/23/gemini-se-adelanta-8-funciones-que-chatgpt-aun-no-puede-ofrecer/
@todoIA
https://wwwhatsnew.com/2025/05/23/gemini-se-adelanta-8-funciones-que-chatgpt-aun-no-puede-ofrecer/
@todoIA
WWWhat's new
Gemini se adelanta: 8 funciones que ChatGPT aún no puede ofrecer
La competencia entre Google Gemini y ChatGPT está alcanzando un nuevo nivel. Aunque ambas plataformas lideran el desarrollo de inteligencia artificial, Google ha aprovechado su ecosistema de productos para ofrecer funcionalidades únicas que, al menos por…
10 millones de dólares al año por trabajar en Inteligencia Artificial: Google, OpenAi y otras multinacionales ofrecen sueldos extraordinarios a los grandes talentos
https://www.lavanguardia.com/neo/20250522/10710576/10-millones-dolares-ano-trabajar-inteligencia-artificial-google-openai-multinacionales-ofrecen-sueldos-extraordinarios-grandes-talentos-pmv.html
@todoIA
https://www.lavanguardia.com/neo/20250522/10710576/10-millones-dolares-ano-trabajar-inteligencia-artificial-google-openai-multinacionales-ofrecen-sueldos-extraordinarios-grandes-talentos-pmv.html
@todoIA
La Vanguardia
10 millones de dólares al año por trabajar en Inteligencia Artificial: Google, OpenAi y otras multinacionales ofrecen sueldos extraordinarios…
El auge de la inteligencia artificial ha convertido a un grupo reducido de investigadores en las figuras más codiciadas del sector tecnológico, con ofertas salariales
YouTube Enfrenta Nueva Polémica por Clonación de Voces con IA sin Consentimiento
https://gptzone.net/noticias/youtube-polemica-por-clonacion-voces-con-ia/
@todoIA
https://gptzone.net/noticias/youtube-polemica-por-clonacion-voces-con-ia/
@todoIA
GptZone
YouTube Enfrenta Nueva Polémica por Clonación de Voces con IA sin Consentimiento
La IA le robó la voz a un youtuber sin que él lo supiera. Mark Brown alza la voz contra el uso no autorizado de su identidad en contenido generado por IA.
Opinión
¿Dónde estará ubicada la inteligencia artificial?
https://telegra.ph/Dónde-estará-ubicada-la-inteligencia-artificial-05-23
@todoIA
¿Dónde estará ubicada la inteligencia artificial?
https://telegra.ph/Dónde-estará-ubicada-la-inteligencia-artificial-05-23
@todoIA
Telegraph
¿Dónde estará ubicada la inteligencia artificial?
El titular de 'La Serendipia' de esta semana juega con una pretendida ambigüedad, he de admitirlo. Porque la ubicación de la inteligencia artificial descansa sobre dos localizaciones distintas y, al mismo tiempo, interrelacionadas. La primera, el país donde…
La IA también llega a la videovigilancia: así son las cámaras inteligentes que pueden detectar caras y matrículas
https://cadenaser.com/nacional/2025/05/23/la-ia-tambien-llega-a-videovigilancia-asi-son-las-camaras-inteligentes-que-pueden-detectar-caras-y-matriculas-cadena-ser/?outputType=amp
@todoIA
https://cadenaser.com/nacional/2025/05/23/la-ia-tambien-llega-a-videovigilancia-asi-son-las-camaras-inteligentes-que-pueden-detectar-caras-y-matriculas-cadena-ser/?outputType=amp
@todoIA
Cadena SER
La IA también llega a la videovigilancia: así son las cámaras inteligentes que pueden detectar caras y matrículas
La corporación taiwanesa Synology ha presentado en Computex 2025 unas videocámaras Wi-Fi con Inteligencia Artificial
Claude Sonnet 4 llega a Perplexity Pro: IA más razonadora, con pensamiento extendido
https://gptzone.net/noticias/claude-sonnet-4-llega-a-perplexity-pro-ia/
@todoIA
https://gptzone.net/noticias/claude-sonnet-4-llega-a-perplexity-pro-ia/
@todoIA
GptZone
Claude Opus 4 de Anthropic alcanza un 79,4 % en benchmark y supera a GPT-4 y Gemini en programación
Conoce las novedades de Claude Opus 4, el mejor modelo de programación, y Sonnet 4, eficiente y asequible. Ya en Amazon Bedrock, Google Cloud y API Anthropic.
Los mejores prompts para ahorrar horas de trabajo y hacer tus tareas con ChatGPT, Gemini, Copilot u otra inteligencia artificial
https://www.xataka.com/basics/mejores-prompts-para-ahorrar-horas-trabajo-hacer-tus-tareas-chatgpt-gemini-copilot-u-otra-inteligencia-artificial
@todoIA
https://www.xataka.com/basics/mejores-prompts-para-ahorrar-horas-trabajo-hacer-tus-tareas-chatgpt-gemini-copilot-u-otra-inteligencia-artificial
@todoIA
Columbia Journalism Review lanza una campaña global para enseñar a detectar imágenes falsas con inteligencia artificial
https://laboratoriodeperiodismo.org/columbia-journalism-review-lanza-una-campana-global-para-ensenar-a-detectar-imagenes-falsas-con-inteligencia-artificial/
@todoIA
https://laboratoriodeperiodismo.org/columbia-journalism-review-lanza-una-campana-global-para-ensenar-a-detectar-imagenes-falsas-con-inteligencia-artificial/
@todoIA
Cómo transformará la inteligencia artificial nuestra forma de viajar
https://www.lavanguardia.com/magazine/viajes/20250523/10688355/como-transformara-inteligencia-artificial-forma-viajar.html
@todoIA
https://www.lavanguardia.com/magazine/viajes/20250523/10688355/como-transformara-inteligencia-artificial-forma-viajar.html
@todoIA
La Vanguardia
Cómo transformará la inteligencia artificial nuestra forma de viajar
¿Te imaginas a Marco Aurelio explicándote in situ cómo era un día normal en la antigua Roma? ¿Y recrear episodios históricos de los jemeres durante la
THX Spatial Audio+: la revolución del audio 3D con inteligencia artificial ya está aquí
https://www.avpasion.com/thx-spatial-audio-revolucion-audio-3d-ya-aqui/
@todoIA
https://www.avpasion.com/thx-spatial-audio-revolucion-audio-3d-ya-aqui/
@todoIA
AVPasión
THX Spatial Audio+: la revolución del audio 3D con inteligencia artificial ya está aquí
THX lo ha vuelto a hacer. Si pensabas que ya lo habías oído todo en cuanto a sonido envolvente, espera a conocer lo último que han sacado de la chistera. La