Por Michelle Ballesteros Aguirre
Estamos viviendo en tiempo real la era de la inteligencia artificial. El éxito de ChatGPT ha desatado una fiebre de inversión que ha beneficiado a empresas como NVIDIA y ha posicionado a OpenAI como una de las startups más relevantes. Sin embargo, este progreso tiene su lado negativo: el aumento de pleitos legales y la pregunta incómoda sobre la responsabilidad ante los fallos.
El sistema legal estadounidense, donde las demandas son una respuesta habitual a los daños tecnológicos, se está viendo desbordado por la IA. El modelo tradicional de seguros, que convierte riesgos futuros en costos manejables, está siendo puesto a prueba como nunca antes.
Los primeros afectados: OpenAI y Anthropic ya enfrentan demandas millonarias, por ejemplo, por usar contenido con derechos de autor o por un trágico caso de suicidio. Estos juicios sientan un precedente peligroso para toda la industria.
La respuesta de las aseguradoras: Se muestran reacias a cubrir estos riesgos. Admiten que no tienen la capacidad para proteger a las empresas de IA a gran escala, por miedo a que un solo error provoque una reacción en cadena con costos catastróficos.
La solución improvisada: Al no encontrar cobertura en el mercado, las empresas de IA se ven forzadas a autoasegurarse. OpenAI explora la creación de su propia aseguradora, mientras que Anthropic ya ha destinado capital directamente para acuerdos legales.
Consecuencias para todos: Esta incertidumbre legal se ha convertido en un costo fijo para el sector. Las primas de seguros suben, las coberturas se reducen y los lanzamientos se retrasan. La falta de reglas claras hace que cada nuevo desarrollo sea más caro y arriesgado. La industria avanza, pero choca contra un sistema que no está preparado para medir sus riesgos.
