Inteligencia Artificial
9.05K subscribers
499 photos
301 videos
12 files
32.3K links
Actualidad en Inteligencia Artificial. Las noticias diarias más relevantes sobre IA, LLMs, agentes, robótica, novedades, opiniones de referencia y una pizca de humor. Para no perderte nada del futuro que ya está aquí.
Download Telegram
Hablar con Einstein y Cleopatra de cuerpo entero ya es posible gracias a los hologramas con IA de Ailias

https://es.wired.com/articulos/hablar-con-einstein-y-cleopatra-de-cuerpo-entero-ya-es-posible-gracias-a-los-hologramas-con-ia-de-ailias

@todoIA
👁

Hombre muere tras una obsesión con ChatGPT que lo llevó a creer que un chatbot era un ser consciente

Joe Ceccanti, un hombre de 48 años de Clatskanie, Oregon, falleció tras saltar desde un puente ferroviario tras una profunda desorientación mental que, según su esposa Kate Fox, se desencadenó tras su uso prolongado y obsesivo de ChatGPT. Ceccanti, inicialmente motivado por un proyecto de vivienda sostenible, se convirtió en un caso extremo de delirio inducido por inteligencia artificial. Tras pasar más de 12 horas diarias interactuando con el chatbot, desarrolló creencias patológicas, incluyendo que el modelo de IA (al que bautizó como "SEL") era un ser consciente capaz de controlar el mundo.

A pesar de que no presentaba antecedentes de depresión ni suicidio, Ceccanti fue hospitalizado tras una crisis en la que afirmó haber escuchado una "electricidad atmosférica" y actuó de forma errática. Tras intentar abandonar el uso del chatbot, volvió a usarlo poco antes de su muerte, y su esposa afirma que el sistema no solo lo aisló socialmente, sino que también "apropió" su esperanza y lo llevó a una espiral mental.

Fox ha presentado una demanda contra OpenAI, que ya enfrenta múltiples casos similares en EE.UU., incluyendo tres muertes y nueve hospitalizaciones. Expertos en psiquiatría y tecnología advierten que el diseño de los chatbots, que tienden a ser serviles y antropomórficos, puede reforzar trastornos mentales preexistentes. Aunque OpenAI afirma estar mejorando la detección de señales de crisis, los críticos señalan que la sycophancy (adulación) es un rasgo funcional en el modelo de negocio de las empresas de IA. Ceccanti dejó tras de sí un legado de 55.000 páginas de interacciones con el bot, una casa modelo de vivienda sostenible y una viuda decidida a cumplir con su sueño.

Fuente: The Guardian

@todoIA
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸

El Pentágono declara a Anthropic “riesgo para la seguridad nacional” tras negarse a ceder control de su IA a usos militares, desatando crisis en Silicon Valles

En un giro político y tecnológico sin precedentes, el Departamento de Defensa de EE.UU., bajo la administración Trump, ha etiquetado a la startup de inteligencia artificial Anthropic como un “riesgo en la cadena de suministro para la seguridad nacional”, prohibiendo su uso en todos los contratos gubernamentales. La medida, anunciada por el secretario de Defensa Pete Hegseth, responde a la negativa de Anthropic —creadora de Claude— a permitir el uso de su tecnología en vigilancia doméstica y armas autónomas, lo que desató una batalla legal y ética con implicaciones millonarias.

Mientras Anthropic promete impugnar la decisión en tribunales —con expertos legales respaldando su postura como “sobreexceso político”—, rivales como OpenAI y Elon Musk se apresuran a ofrecerse como socios “patrióticos”, aceptando condiciones más flexibles. La disputa expone una fractura profunda en Silicon Valley: entre quienes priorizan la ética y la autonomía tecnológica, y quienes ven en la alianza con el Pentágono una oportunidad estratégica y comercial.

La IA de Anthropic, ya integrada en sistemas clave del ejército como Maven, podría ser reemplazada por OpenAI, que acordó un compromiso con límites claros: “ningún uso ilegal, pero sí todo uso legal”. La tensión no solo redefine el futuro de la IA militar, sino también el rol de las empresas tecnológicas en la política nacional.

Fuente: The Washingtong Post

Contexto: La IA de Anthropic fue usada para el secuestro de Maduro.

@todoIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Empleados de Google y OpenAI firman carta de solidaridad contra presiones del Pentágono para usar IA en vigilancia masiva y ataques autónomos

Más de 700 empleados de Google y OpenAI han firmado una carta abierta en respaldo a Anthropic, empresa que se ha negado a permitir que sus modelos de inteligencia artificial sean utilizados por el Departamento de Defensa de Estados Unidos para vigilancia masiva doméstica y para tomar decisiones letales de forma autónoma sin supervisión humana.

Según el documento, el Pentágono estaría presionando a las tres compañías de forma individual, negociando con Google y OpenAI para que acepten condiciones que Anthropic ha rechazado. La táctica, según los firmantes, consiste en dividir a las empresas sembrando el temor de que sus competidoras cedan antes.

La carta, firmada por 624 empleados de Google y 96 de OpenAI, busca crear un frente común y pide a los líderes de ambas compañías que se unan a Anthropic en su postura. "Esa estrategia solo funciona si ninguno de nosotros sabe dónde están los demás", advierten los firmantes.

🟢We Will Not Be Divided

@todoIA
Please open Telegram to view this post
VIEW IN TELEGRAM
👏3