Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
El gobernador de California, Gavin Newsom, vetó el pasado domingo un controvertido proyecto de ley sobre la regulación de la inteligencia artificial (IA), tras recibir fuertes críticas por parte de la industria tecnológica. El proyecto de ley SB 1047, propuesto por el senador estatal Scott Wiener, buscaba implementar medidas de seguridad para los sistemas de IA más avanzados, pero fue rechazado por Newsom, quien argumentó que la legislación, tal como estaba redactada, podría perjudicar la innovación tecnológica en el estado.
El proyecto de ley pretendía aplicar rigurosas normas de seguridad a los modelos de IA que superasen un costo de desarrollo de 100 millones de dólares o aquellos que emplearan grandes cantidades de poder computacional. Entre sus medidas destacadas, incluía la creación de una entidad estatal para supervisar el desarrollo de los llamados «Modelos Fronterizos» y requería la implementación de un «botón de apagado» para desactivar los sistemas en caso de amenazas críticas como bioguerra o daños masivos.
No obstante, Newsom subrayó que el proyecto no distinguía entre los entornos de alto riesgo y aquellos de menor impacto, aplicando los mismos estándares a funciones básicas de la IA. En su comunicado, el gobernador indicó que, si bien compartía la preocupación por los peligros potenciales de esta tecnología, la propuesta no ofrecía un enfoque basado en análisis empíricos ni tomaba en cuenta las capacidades reales de los sistemas.
El rechazo al proyecto de ley ha generado reacciones encontradas. Wiener, autor de la propuesta, criticó el veto señalando que deja al público vulnerable ante posibles riesgos catastróficos relacionados con la IA y que las medidas voluntarias promovidas por las empresas de tecnología no son suficientes para garantizar la seguridad. También afirmó que esta decisión sitúa a California en una posición menos segura, ya que no habrá restricciones vinculantes para los desarrolladores de IA en el estado.
Por otro lado, el veto fue bien recibido por la industria tecnológica. Un grupo de empresas, entre ellas OpenAI, Google y Meta, habían manifestado su oposición al proyecto, argumentando que las regulaciones propuestas podrían frenar la innovación y la competitividad. La organización Chamber of Progress, una coalición de empresas tecnológicas, elogió la decisión de Newsom, afirmando que la economía tecnológica de California ha prosperado gracias a la competencia y la apertura.
El debate sobre la regulación de la IA se ha intensificado a nivel global. En ausencia de legislación federal en Estados Unidos, otros estados como Colorado, Maryland e Illinois han aprobado normativas que abordan aspectos específicos de la IA, como los videos «deepfake» o el uso de reconocimiento facial. Sin embargo, el proyecto de ley SB 1047 atrajo mayor atención al enfocarse en los modelos de IA más potentes y complejos.
El gobernador Newsom señaló que trabajará con el legislativo estatal para desarrollar una legislación que tome en cuenta las recomendaciones de expertos en IA. A su vez, instó a las agencias estatales a ampliar sus evaluaciones sobre los riesgos potenciales de la IA en infraestructuras críticas, como el sector energético y de aguas, con el objetivo de prevenir posibles desastres.
El rechazo al SB 1047 también ha generado división dentro del ámbito político. Mientras que algunos demócratas, como la representante Nancy Pelosi, expresaron su apoyo al veto argumentando que el proyecto de ley era «bien intencionado pero mal informado», otros, como el empresario y CEO de Tesla, Elon Musk, habían respaldado la propuesta, destacando los peligros que podría suponer una IA sin regulaciones adecuadas.
El gobernador ha manifestado su compromiso de seguir trabajando en una legislación más ajustada y basada en evidencia científica, a medida que continúa el rápido desarrollo de la inteligencia artificial.
A nivel internacional, otros organismos como la Unión Europea ya han avanzado en la regulación de la IA con iniciativas como la Ley de Inteligencia Artificial, que limita el uso de tecnologías de alto riesgo como el reconocimiento facial.