Goldman Sachs veda el uso de la IA de Anthropic a sus banqueros de Hong Kong

Goldman Sachs prohibió a sus banqueros con sede en Hong Kong el uso de Claude, el modelo de inteligencia artificial desarrollado por Anthropic, según reportó el Financial Times. La medida aplica específicamente al personal radicado en Hong Kong y se enmarca en las restricciones que los grandes bancos de inversión globales han comenzado a implementar respecto al uso de herramientas de IA generativa de terceros en jurisdicciones con marcos regulatorios específicos sobre manejo de datos y seguridad de la información. La decisión refleja la tensión creciente entre la adopción corporativa acelerada de herramientas de IA y los requerimientos de cumplimiento normativo en plazas financieras asiáticas bajo regulación china. La restricción geográfica —circunscrita a Hong Kong y no extendida a otras oficinas de Goldman Sachs— sugiere que la decisión responde a consideraciones regulatorias y de soberanía de datos propias de esa jurisdicción, más que a una evaluación negativa de la herramienta en sí. Anthropic, valuada en decenas de miles de millones de dólares, ha visto crecer su base de clientes corporativos a nivel global, pero la expansión en Asia enfrenta complejidades derivadas del marco normativo vigente en la región administrativa especial. La medida se produce en un contexto de creciente escrutinio regulatorio sobre el uso de plataformas de IA desarrolladas por empresas estadounidenses en entidades financieras operando bajo jurisdicción de Hong Kong. Fuente: Reuters vía FT, 29 de abril de 2026 — análisis editorial Sudameris