Desglose Claude: Han comenzado varios informes sobre problemas con Claude en Downdetector. Al momento de escribir este artículo, hay más de 4000 informes, lo cual es un número considerable para un período de tiempo tan corto.

Claude Outage: Downdetector muestra que más de 4000 usuarios están reportando problemas con Claude, lo que marca un aumento notable en el número de quejas. (Bloomberg)

Claude reconoció la interrupción en su página de estado y notó un aumento en los errores. Los problemas más reportados se produjeron en Claude Chat (48%), la aplicación (28%) y Claude Code (14%).

“El problema ha sido identificado y se está implementando una solución”, dice el comunicado.

Mientras tanto, varios usuarios informaron que Claude falló en X. “Alerta de error en Claude: “Esto no funciona en este momento. Puedes volver a intentarlo más tarde. “Funcionó en la aplicación del teléfono”, escribió un usuario.

“Esto es para mí”, dijo otro.

“No puedo usarlo” Esto no funciona en este momento. Puedes volver a intentarlo más tarde. “Los últimos 15 minutos aproximadamente”, escribió una tercera persona.

Lea también: Los registros de visas H-1B disminuyen para el año fiscal 2027: aquí está quién se beneficiará

La nueva función de Anthropic para el asistente de IA Claude

Anthropic ha revelado una nueva característica para su asistente de IA Claude, que le permite realizar tareas de codificación con mayor autonomía, mientras trabaja para mantener una capa de controles de seguridad.

Actualmente se puede acceder a esta función, llamada “modo automático”, como vista previa de búsqueda y tiene como objetivo minimizar la necesidad de que los desarrolladores autoricen manualmente cada acción realizada por los sistemas de inteligencia artificial. Más bien, el modelo evalúa si una tarea se puede realizar de forma segura de forma independiente, buscando lograr un equilibrio entre eficiencia y supervisión.

El modo automático funciona evaluando cada acción antes de ejecutarla, buscando peligros potenciales como comportamientos no deseados o ataques de inyección rápida, donde instrucciones ocultas pueden obligar a la IA a realizar acciones que exceden la intención del usuario. Las acciones consideradas seguras se realizan de forma automática, mientras que aquellas identificadas como riesgosas no se pueden realizar.

La reciente actualización mejora las herramientas anteriores desarrolladas por Anthropic, como Claude Code Review y Dispatch, diseñadas para automatizar los flujos de trabajo de desarrollo. Sin embargo, el modo automático avanza este concepto al trasladar el proceso de toma de decisiones del usuario a la IA con respecto a cuándo se requieren aprobaciones.

Este cambio significa una tendencia más amplia en el panorama de la IA, donde organizaciones como OpenAI y GitHub están creando sistemas que pueden realizar tareas de forma independiente. A medida que avanzan estas tecnologías, el desafío actual es garantizar que una mayor autonomía no comprometa la confiabilidad o la seguridad.

Anthropic no ha revelado los criterios específicos que utiliza su capa de seguridad para distinguir entre acciones seguras e inseguras, lo que puede ser un factor crucial para los desarrolladores que evalúan esta característica.

La compañía anunció que el modo automático pronto estará disponible para usuarios empresariales y API. Actualmente está limitado a determinadas versiones de modelos y se recomienda utilizarlo en entornos controlados o en modo sandbox para reducir posibles riesgos durante la fase de prueba.

Enlace de origen