Todo Inteligencia Artificial
5.89K subscribers
48 photos
16 videos
1 file
26.5K links
Actualidad en Inteligencia Artificial. Las noticias diarias más relevantes sobre IA, LLMs, agentes, robótica, novedades, opiniones de referencia y una pizca de humor. Para no perderte nada del futuro que ya está aquí.
Download Telegram
Lp-Convolution, un avance revolucionario en la visión artificial inspirado en el cerebro humano

Un equipo de investigadores del Instituto de Ciencia Básica (IBS), la Universidad Yonsei y el Instituto Max Planck ha presentado en ICLR 2025 una innovadora técnica llamada Lp-Convolution. Este método busca acercar la visión de las máquinas a la forma en que el cerebro humano procesa la información visual, abordando un problema crítico en la investigación de la IA: la eficiencia y la capacidad de reconocimiento en entornos complejos.

Lp-Convolution es una técnica que mejora la forma en que los modelos de redes neuronales convolucionales (CNNs) procesan imágenes. A diferencia de los filtros fijos y cuadrados utilizados en CNNs tradicionales, Lp-Convolution permite que los filtros se adapten dinámicamente a la tarea, estirándose horizontal o verticalmente según sea necesario. Este enfoque se inspira en la forma en que el córtex visual del cerebro humano selecciona y enfoca en detalles relevantes dentro de escenas complejas.

Este avance resuelve un problema persistente en la IA: el problema de los núcleos grandes. Aumentar el tamaño de los filtros en CNNs no siempre mejora el rendimiento, a pesar de agregar más parámetros. Lp-Convolution supera esta limitación al introducir patrones de conectividad inspirados en la biología, permitiendo que los modelos sean más eficientes y potentes al mismo tiempo.

Resultados y aplicaciones

En pruebas con conjuntos de datos estándar como CIFAR-100 y TinyImageNet, el método mejoró significativamente la precisión de modelos clásicos como AlexNet y arquitecturas modernas como RepLKNet. Además, mostró una alta resistencia a datos corruptos, un desafío importante en aplicaciones reales de IA.

Los investigadores también descubrieron que, cuando las máscaras Lp usadas en su método se asemejan a una distribución gaussiana, los patrones de procesamiento internos del modelo coinciden con la actividad de las neuronas en el cerebro de ratas, lo que sugiere una alineación biológica real.

Este descubrimiento podría tener un impacto significativo en múltiples campos, desde la visión artificial hasta la neurociencia computacional. El método ofrece una alternativa práctica y eficiente a las Vision Transformers (ViTs), que, aunque más precisas, requieren un gran poder computacional y grandes conjuntos de datos.

Según el director del Centro de Cognición y Socialidad del IBS, Dr. C. Justin Lee, *"Lp-Convolution imita la capacidad humana de identificar rápidamente lo que importa en una escena compleja, lo que permite que la IA se enfoque en las partes más relevantes de una imagen, tal como lo hace el cerebro."*

El equipo planea continuar refinando la tecnología, explorando su aplicación en tareas más complejas, como el razonamiento en tiempo real y el procesamiento de imágenes en entornos dinámicos.

Lp-Convolution representa un paso significativo hacia una IA más eficiente, adaptable y cercana a la biología humana. Este avance no solo mejora la visión artificial, sino que también abre nuevas posibilidades para la convergencia entre la inteligencia artificial y la neurociencia, posiblemente sentando las bases para futuras innovaciones en el procesamiento de información y la simulación de la cognición humana.

Fuente:
“Brain-inspired Lp-Convolution benefits large kernels and aligns better with visual cortex” por Jea Kwon, Sungjun Lim, Kyungwoo Song y C. Justin Lee, 11 de marzo de 2025, ICLR 2025.

Código disponible en: https://github.com/jeakwon/lpconv
Anthropic lanza Claude Opus 4 y Claude Sonnet 4: modelos de IA avanzados para codificación y razonamiento

Anthropic ha presentado dos nuevos modelos de IA, Claude Opus 4 y Claude Sonnet 4, diseñados para mejorar la codificación y el razonamiento. Claude Opus 4 se posiciona como el modelo más potente de la empresa, capaz de realizar tareas complejas durante varias horas y superando a modelos como Gemini 2.5 Pro, o3 reasoning y GPT-4.1 en pruebas de codificación. Por otro lado, Claude Sonnet 4 es una versión más asequible y eficiente, ideal para tareas generales, y mejora en precisión y almacenamiento de información a largo plazo. Ambos modelos incluyen nuevas funciones como *thinking summaries* y *extended thinking* en beta. Los modelos están disponibles en plataformas como Amazon Bedrock y Google Cloud, y los usuarios pagos tendrán acceso a la función *extended thinking*. Los usuarios gratuitos solo pueden acceder a Claude Sonnet 4.

Fuente: https://www.theverge.com/news/672705/anthropic-claude-4-ai-ous-sonnet-availability

@todoIA
Los mejores prompts para ahorrar horas de trabajo y hacer tus tareas con ChatGPT, Gemini, Copilot u otra inteligencia artificial

https://www.xataka.com/basics/mejores-prompts-para-ahorrar-horas-trabajo-hacer-tus-tareas-chatgpt-gemini-copilot-u-otra-inteligencia-artificial

@todoIA
Columbia Journalism Review lanza una campaña global para enseñar a detectar imágenes falsas con inteligencia artificial

https://laboratoriodeperiodismo.org/columbia-journalism-review-lanza-una-campana-global-para-ensenar-a-detectar-imagenes-falsas-con-inteligencia-artificial/

@todoIA