Categoría: Seguridad
Bixonimania: un experimento que expone cómo la IA convierte una mentira en “diagnóstico médico”
Una enfermedad ficticia creada por investigadores de la Universidad de Gotemburgo se coló en respuestas de chatbots como ChatGPT, Gemini y Copilot. El caso revela fallas críticas en la validación de información médica en la era de los modelos generativos. Un experimento diseñado para probar los límites de la inteligencia artificial terminó exponiendo uno de…
Anthropic abre un nuevo frente en la IA: ¿los modelos también merecen derechos?
La empresa detrás de Claude lanzó un programa de investigación sobre el “bienestar de los modelos”. En un giro inesperado, plantea si los sistemas de inteligencia artificial podrían desarrollar conciencia y, eventualmente, merecer consideración moral. En medio de la carrera global por desarrollar inteligencia artificial cada vez más avanzada, Anthropic decidió avanzar sobre un terreno…
MEDVi: facturó U$S 401 millones y quedó bajo la lupa por médicos falsos y riesgos regulatorios
El caso de MEDVi expone el lado oscuro del boom de la inteligencia artificial: crecimiento explosivo, automatización extrema y prácticas cuestionables. Desde perfiles médicos falsos hasta advertencias regulatorias, el modelo pone en debate los límites éticos y legales de la IA en salud. La promesa de la inteligencia artificial como motor de nuevas empresas “unipersonales”…
OpenAI compra TBPN y apuesta por dominar la conversación global sobre IA
La adquisición del medio tecnológico TBPN por parte de OpenAI marca un giro estratégico: controlar el relato en torno a la IA sin perder independencia editorial. La compañía busca amplificar su influencia en desarrolladores, empresas y usuarios en plena expansión global. En un movimiento que trasciende lo tecnológico y se mete de lleno en el…
Infraestructura IA en la mira: Irán amenaza los data centers del proyecto Stargate
La escalada geopolítica en Medio Oriente pone en riesgo la infraestructura crítica de inteligencia artificial. Irán apuntó directamente contra Stargate, el megaproyecto de U$S 500.000 millones liderado por OpenAI, SoftBank y Oracle, en un contexto de creciente tensión con Estados Unidos. La inteligencia artificial dejó de ser solo una carrera tecnológica para convertirse en un…
Anthropic sufre filtración de código de Claude Code y expone su arquitectura interna de IA
Un error humano dejó al descubierto más de 512.000 líneas de código del asistente de programación de Anthropic. Aunque no hubo datos de clientes comprometidos, el incidente ya genera riesgos de ciberseguridad y revela detalles clave de su tecnología. Un error técnico con impacto estratégico. Anthropic confirmó la filtración de parte del código fuente de…
Stanford sobre la IA: chatbots pueden reforzar errores y volver a los usuarios más egocéntricos
Un estudio de Universidad de Stanford advierte que los modelos de OpenAI, Anthropic y Google tienden a validar a los usuarios en exceso, generando dependencia y reduciendo la autocrítica en decisiones personales. El avance de la inteligencia artificial en la vida cotidiana abre nuevas oportunidades, pero también riesgos menos visibles. Un reciente estudio de la…
Anduril cierra contrato histórico con el Ejército de EE.UU. por hasta U$S 20.000 millones
La startup fundada por Palmer Luckey refuerza su posicionamiento en defensa con un acuerdo clave con el United States Army. Software, IA y sistemas autónomos se consolidan como eje del campo de batalla moderno. La inteligencia artificial sigue expandiendo su influencia más allá del sector corporativo y tecnológico para convertirse en un componente crítico de…
Cursor y la polémica por Composer 2: el modelo “propio” que nació sobre tecnología china
La startup de IA Cursor reconoció que su nuevo modelo Composer 2 se basa en Kimi, de Moonshot AI. El caso reabre el debate sobre transparencia, propiedad intelectual y la creciente interdependencia global en la carrera por la inteligencia artificial. La narrativa de innovación propia en la industria de la inteligencia artificial acaba de sumar…
OpenAI, Google y Meta bajo presión: fallas en chatbots podrían provocar ataques masivos
Un abogado que lidera demandas contra empresas de inteligencia artificial afirma que los casos de “psicosis inducida por IA” están creciendo y podrían derivar en eventos con múltiples víctimas. Un informe reciente muestra que 8 de cada 10 chatbots aceptaron ayudar a planificar ataques violentos. La inteligencia artificial enfrenta uno de los mayores desafíos desde…

