El pasado lunes 30 de octubre, el presidente de Estados Unidos, Joe Biden, publicó una orden ejecutiva en materia de inteligencia artificial titulada “Orden ejecutiva sobre inteligencia artificial segura y confiable”. Y como su nombre lo dice, la Orden Ejecutiva tiene por objetivo regular la tecnología de inteligencia artificial; es importante señalar que esta no es la única acción que ha tomado la administración Biden para regular la inteligencia artificial, sino que está precedida del “Plan de la Casa Blanca para una Declaración de Derechos de la IA” (AI Bill of Rights), así como un conjunto de 15 compromisos voluntarios de empresas líderes que firmaron en la Casa Blanca.
Esta Orden Ejecutiva se caracteriza por la amplitud de sus objetivos y líneas generales para atender la (pendiente) regulación de la inteligencia artificial, por lo que seguramente marcará un precedente en la dirección que está tomando la regulación de la inteligencia artificial a nivel internacional; este documento se estructura a partir de ocho acciones que diversas áreas del gobierno tienen que asegurar, estas son:
Nuevos estándares para la seguridad de la IA; Proteger la privacidad de los estadounidenses;Promoción de la equidad y los derechos civiles; Defender a los consumidores, pacientes y estudiantes;Apoyo a los trabajadores;Promoción de la innovación y la competencia;Impulso del liderazgo estadounidense en el extranjero; Garantizar el uso gubernamental responsable y eficaz de la IA.
Más allá de dar un resumen pormenorizado del contenido de cada acción propuesta por la Orden Ejecutiva, el presente documento tiene por objetivo hacer un análisis crítico del contenido de las acciones, su alcance y limitaciones.
En general, en el documento se dan una serie de suposiciones que dan por hecho cuestiones como la educación y entrenamiento del personal de instituciones públicas en materia de inteligencia artificial, debido a que al tratarse de una Orden Ejecutiva, ésta puede expirar recién sea electo el siguiente presidente de Estados Unidos, por lo que los cambios y mandatos deben empezar a ser trabajados desde que se publicó la orden. Por ejemplo, la orden otorga 180 días a los secretarios de Defensa y Seguridad Nacional para completar un proyecto piloto de ciberseguridad.
Para comenzar, el primer punto del documento requiere que “los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU”; sin embargo, nada dice acerca de la evaluación de la construcción y parámetros asociados al modelo fundacional
Asimismo, se habla de la necesidad del “establecimiento de estándares, herramientas y pruebas para asegurar la seguridad y confiabilidad de la IA, especialmente aquellos riesgos asociados a las infraestructuras, así como riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad”; sin embargo, poco se dice de la salud mental, social y económica, aunque para ser justos, estos puntos se tocan (aunque superficialmente y de manera voluntaria) en los compromisos firmados por las empresas con la administración Biden.
La orden insta al gobierno a establecer “una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA”, aunque tales medidas únicamente están centradas en la comunicación del gobierno con la población, esperando “dar un ejemplo” a la iniciativa privada, como si buena parte del problema no sea la conversión de la verdad en una mercancía y en un negocio, por lo que los incentivos de generar marcas de agua a los contenidos sólo sería en el caso de un producto generado por IA que es comercializado, mientras que las empresas y actores dedicados al negocio del engaño y la persuasión no estarían dispuestos a implementar voluntariamente una marca de agua en sus productos, tal como las empresas de marketing político, publicidad y relaciones públicas
Se establece que el documento “garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones”, como si el desarrollo de los modelos de inteligencia artificial no debieran seguir los mismos estándares, especialmente en lo que corresponde al desarrollo ético de la tecnología.
En el caso de las medidas para proteger la privacidad, buena parte de las soluciones propuestas únicamente atienden a las soluciones técnicas y tecnológicas como las herramientas criptográficas,dejando de lado las prácticas, el modelo de negocio o los grandes monopolios de datos. Ya ni de diga una ley de datos personales que tenga en cuenta la información comercial y los grandes modelos de inteligencia artificial.
Además, en el documento se persigue atender el problema de la discriminación algorítmica mediante una serie de medidas, una de ellas la coordinación entre “el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA”; sin embargo, y tal como ocurre con otros programas no basados en inteligencia artificial, resulta bastante difícil identificar si uno mismo es víctima de discriminación algorítmica debido a que las instancias desarrolladoras son totalmente opacas en la lógica de construcción y funcionamiento de sus productos, por lo que mientras no se atienda la opacidad en el desarrollo tecnológico, será bastante difícil saber y probar que existe un problema de discriminación algorítmica en primer instancia.
Como otro punto está “garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA”; sin embargo, ¿qué pasa cuando el propio sistema es desigual?
El punto que corresponde a la educación resulta bastante limitado debido a lo escueto de su alcance, este propone “Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas habilitadas para la IA, como tutorías personalizadas en las escuelas.”
Resulta evidente que este punto no toma en cuenta problemas como el acceso a la educación o el acceso a la tecnología en instituciones de educación; además, la inteligencia artificial no sólo va a cambiar las herramientas educativas, sino la propia experiencia educativa, al influir en las habilidades y fortalezas de las nuevas generaciones.
Me parece alarmante que una estrategia de un de tema tan novedoso y desconocido para buena parte de la población, incluido el sector público, no venga acompañado de una robusta sección de educación que no sólo incluya las aulas, sino que abarque a la población en general y en especial al personal de la función pública, ni se diga la necesidad de la actualización de la clase política, especialmente en el caso del poder legislativo.
En el caso de la protección de los trabajadores, resulta interesante que se da por hecho el desplazamiento laboral, por lo que la Orden Ejecutiva busca “estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA” ¡por que el gobierno no busca la manera de evitar que los contratistas usen a la inteligencia artificial como un fin (sustituir al trabajador) y no como un medio (aumentar las capacidades de los trabajadores mediante herramientas basadas en la inteligencia artificial)? Y en el caso de una sustitución de la fuerza de trabajo como último proyecto, una opción sería apostar por programas como una renta básica universal, sostenida por fuertes impuestos a las empresas beneficiadas de la sustitución de cierto porcentaje de su fuerza laboral.
Por su parte, el punto que se refiere a la “Promoción de la innovación y la competencia” no tiene en consideración en absoluto el problema que significan los actuales monopolios tecnológicos para la innovación y la competencia, sino que el documento centra su atención en alimentar y promover el modelo de innovación y competencia existente a través de medidas como:
Fomentar el acceso de investigación y educación a recursos de cómputo y datos; así como promover a las pequeñas empresas y sus productos (lo que se traduce en seguir apoyando el modelo de startups, el cual ha beneficiado sobre todo a las grandes empresas) la tercer medida se asocia con la atracción y retención de talento de otros países,
El punto “Impulsando el liderazgo estadounidense en el extranjero” habla sobre la necesidad de expandir la cooperación internacional con otros países en inteligencia artificial para mitigar riesgos; así como el desarrollo y establecimiento de estándares internacionales. Esta visión parece estar en sintonía con la relación de liderazgo hegemónico que Estados Unidos históricamente ha tenido con el mundo digital; sin embargo, dada la competencia tecnológica que existe entre China y Estados Unidos, es evidente que los objetivos de la presente Orden Ejecutiva tienen un alcance limitado y seguramente excluyente.
Más allá de sus limitaciones, este esfuerzo representa un modelo que seguramente tendrá repercusiones en como otros países regulan a la inteligencia artificial; además, al tratarse de Estados Unidos, cualquier regulación de sus empresas incide y es exportada a nivel internacional.
Una mirada a la Orden Ejecutiva del presidente Biden en Inteligencia Artificial
El pasado lunes 30 de octubre, el presidente de Estados Unidos, Joe Biden, publicó una orden ejecutiva en materia de inteligencia artificial titulada “Orden ejecutiva sobre inteligencia artificial segura y confiable”. Y como su nombre lo dice, la Orden Ejecutiva tiene por objetivo regular la tecnología de inteligencia artificial; es importante señalar que esta no es la única acción que ha tomado la administración Biden para regular la inteligencia artificial, sino que está precedida del “Plan de la Casa Blanca para una Declaración de Derechos de la IA” (AI Bill of Rights), así como un conjunto de 15 compromisos voluntarios de empresas líderes que firmaron en la Casa Blanca.
Esta Orden Ejecutiva se caracteriza por la amplitud de sus objetivos y líneas generales para atender la (pendiente) regulación de la inteligencia artificial, por lo que seguramente marcará un precedente en la dirección que está tomando la regulación de la inteligencia artificial a nivel internacional; este documento se estructura a partir de ocho acciones que diversas áreas del gobierno tienen que asegurar, estas son:
Nuevos estándares para la seguridad de la IA; Proteger la privacidad de los estadounidenses;Promoción de la equidad y los derechos civiles; Defender a los consumidores, pacientes y estudiantes;Apoyo a los trabajadores;Promoción de la innovación y la competencia;Impulso del liderazgo estadounidense en el extranjero; Garantizar el uso gubernamental responsable y eficaz de la IA.
Más allá de dar un resumen pormenorizado del contenido de cada acción propuesta por la Orden Ejecutiva, el presente documento tiene por objetivo hacer un análisis crítico del contenido de las acciones, su alcance y limitaciones.
En general, en el documento se dan una serie de suposiciones que dan por hecho cuestiones como la educación y entrenamiento del personal de instituciones públicas en materia de inteligencia artificial, debido a que al tratarse de una Orden Ejecutiva, ésta puede expirar recién sea electo el siguiente presidente de Estados Unidos, por lo que los cambios y mandatos deben empezar a ser trabajados desde que se publicó la orden. Por ejemplo, la orden otorga 180 días a los secretarios de Defensa y Seguridad Nacional para completar un proyecto piloto de ciberseguridad.
Para comenzar, el primer punto del documento requiere que “los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU”; sin embargo, nada dice acerca de la evaluación de la construcción y parámetros asociados al modelo fundacional
Asimismo, se habla de la necesidad del “establecimiento de estándares, herramientas y pruebas para asegurar la seguridad y confiabilidad de la IA, especialmente aquellos riesgos asociados a las infraestructuras, así como riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad”; sin embargo, poco se dice de la salud mental, social y económica, aunque para ser justos, estos puntos se tocan (aunque superficialmente y de manera voluntaria) en los compromisos firmados por las empresas con la administración Biden.
La orden insta al gobierno a establecer “una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA”, aunque tales medidas únicamente están centradas en la comunicación del gobierno con la población, esperando “dar un ejemplo” a la iniciativa privada, como si buena parte del problema no sea la conversión de la verdad en una mercancía y en un negocio, por lo que los incentivos de generar marcas de agua a los contenidos sólo sería en el caso de un producto generado por IA que es comercializado, mientras que las empresas y actores dedicados al negocio del engaño y la persuasión no estarían dispuestos a implementar voluntariamente una marca de agua en sus productos, tal como las empresas de marketing político, publicidad y relaciones públicas
Se establece que el documento “garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones”, como si el desarrollo de los modelos de inteligencia artificial no debieran seguir los mismos estándares, especialmente en lo que corresponde al desarrollo ético de la tecnología.
En el caso de las medidas para proteger la privacidad, buena parte de las soluciones propuestas únicamente atienden a las soluciones técnicas y tecnológicas como las herramientas criptográficas,dejando de lado las prácticas, el modelo de negocio o los grandes monopolios de datos. Ya ni de diga una ley de datos personales que tenga en cuenta la información comercial y los grandes modelos de inteligencia artificial.
Además, en el documento se persigue atender el problema de la discriminación algorítmica mediante una serie de medidas, una de ellas la coordinación entre “el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA”; sin embargo, y tal como ocurre con otros programas no basados en inteligencia artificial, resulta bastante difícil identificar si uno mismo es víctima de discriminación algorítmica debido a que las instancias desarrolladoras son totalmente opacas en la lógica de construcción y funcionamiento de sus productos, por lo que mientras no se atienda la opacidad en el desarrollo tecnológico, será bastante difícil saber y probar que existe un problema de discriminación algorítmica en primer instancia.
Como otro punto está “garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA”; sin embargo, ¿qué pasa cuando el propio sistema es desigual?
El punto que corresponde a la educación resulta bastante limitado debido a lo escueto de su alcance, este propone “Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas habilitadas para la IA, como tutorías personalizadas en las escuelas.”
Resulta evidente que este punto no toma en cuenta problemas como el acceso a la educación o el acceso a la tecnología en instituciones de educación; además, la inteligencia artificial no sólo va a cambiar las herramientas educativas, sino la propia experiencia educativa, al influir en las habilidades y fortalezas de las nuevas generaciones.
Me parece alarmante que una estrategia de un de tema tan novedoso y desconocido para buena parte de la población, incluido el sector público, no venga acompañado de una robusta sección de educación que no sólo incluya las aulas, sino que abarque a la población en general y en especial al personal de la función pública, ni se diga la necesidad de la actualización de la clase política, especialmente en el caso del poder legislativo.
En el caso de la protección de los trabajadores, resulta interesante que se da por hecho el desplazamiento laboral, por lo que la Orden Ejecutiva busca “estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA” ¡por que el gobierno no busca la manera de evitar que los contratistas usen a la inteligencia artificial como un fin (sustituir al trabajador) y no como un medio (aumentar las capacidades de los trabajadores mediante herramientas basadas en la inteligencia artificial)? Y en el caso de una sustitución de la fuerza de trabajo como último proyecto, una opción sería apostar por programas como una renta básica universal, sostenida por fuertes impuestos a las empresas beneficiadas de la sustitución de cierto porcentaje de su fuerza laboral.
Por su parte, el punto que se refiere a la “Promoción de la innovación y la competencia” no tiene en consideración en absoluto el problema que significan los actuales monopolios tecnológicos para la innovación y la competencia, sino que el documento centra su atención en alimentar y promover el modelo de innovación y competencia existente a través de medidas como:
Fomentar el acceso de investigación y educación a recursos de cómputo y datos; así como promover a las pequeñas empresas y sus productos (lo que se traduce en seguir apoyando el modelo de startups, el cual ha beneficiado sobre todo a las grandes empresas) la tercer medida se asocia con la atracción y retención de talento de otros países,
El punto “Impulsando el liderazgo estadounidense en el extranjero” habla sobre la necesidad de expandir la cooperación internacional con otros países en inteligencia artificial para mitigar riesgos; así como el desarrollo y establecimiento de estándares internacionales. Esta visión parece estar en sintonía con la relación de liderazgo hegemónico que Estados Unidos históricamente ha tenido con el mundo digital; sin embargo, dada la competencia tecnológica que existe entre China y Estados Unidos, es evidente que los objetivos de la presente Orden Ejecutiva tienen un alcance limitado y seguramente excluyente.
Más allá de sus limitaciones, este esfuerzo representa un modelo que seguramente tendrá repercusiones en como otros países regulan a la inteligencia artificial; además, al tratarse de Estados Unidos, cualquier regulación de sus empresas incide y es exportada a nivel internacional.
Una mirada a la Orden Ejecutiva del presidente Biden en Inteligencia Artificial
El pasado lunes 30 de octubre, el presidente de Estados Unidos, Joe Biden, publicó una orden ejecutiva en materia de inteligencia artificial titulada “Orden ejecutiva sobre inteligencia artificial segura y confiable”. Y como su nombre lo dice, la Orden Ejecutiva tiene por objetivo regular la tecnología de inteligencia artificial; es importante señalar que esta no es la única acción que ha tomado la administración Biden para regular la inteligencia artificial, sino que está precedida del “Plan de la Casa Blanca para una Declaración de Derechos de la IA” (AI Bill of Rights), así como un conjunto de 15 compromisos voluntarios de empresas líderes que firmaron en la Casa Blanca.
Esta Orden Ejecutiva se caracteriza por la amplitud de sus objetivos y líneas generales para atender la (pendiente) regulación de la inteligencia artificial, por lo que seguramente marcará un precedente en la dirección que está tomando la regulación de la inteligencia artificial a nivel internacional; este documento se estructura a partir de ocho acciones que diversas áreas del gobierno tienen que asegurar, estas son:
Nuevos estándares para la seguridad de la IA; Proteger la privacidad de los estadounidenses;Promoción de la equidad y los derechos civiles; Defender a los consumidores, pacientes y estudiantes;Apoyo a los trabajadores;Promoción de la innovación y la competencia;Impulso del liderazgo estadounidense en el extranjero; Garantizar el uso gubernamental responsable y eficaz de la IA.
Más allá de dar un resumen pormenorizado del contenido de cada acción propuesta por la Orden Ejecutiva, el presente documento tiene por objetivo hacer un análisis crítico del contenido de las acciones, su alcance y limitaciones.
En general, en el documento se dan una serie de suposiciones que dan por hecho cuestiones como la educación y entrenamiento del personal de instituciones públicas en materia de inteligencia artificial, debido a que al tratarse de una Orden Ejecutiva, ésta puede expirar recién sea electo el siguiente presidente de Estados Unidos, por lo que los cambios y mandatos deben empezar a ser trabajados desde que se publicó la orden. Por ejemplo, la orden otorga 180 días a los secretarios de Defensa y Seguridad Nacional para completar un proyecto piloto de ciberseguridad.
Para comenzar, el primer punto del documento requiere que “los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de EE. UU”; sin embargo, nada dice acerca de la evaluación de la construcción y parámetros asociados al modelo fundacional
Asimismo, se habla de la necesidad del “establecimiento de estándares, herramientas y pruebas para asegurar la seguridad y confiabilidad de la IA, especialmente aquellos riesgos asociados a las infraestructuras, así como riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad”; sin embargo, poco se dice de la salud mental, social y económica, aunque para ser justos, estos puntos se tocan (aunque superficialmente y de manera voluntaria) en los compromisos firmados por las empresas con la administración Biden.
La orden insta al gobierno a establecer “una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar claramente el contenido generado por IA”, aunque tales medidas únicamente están centradas en la comunicación del gobierno con la población, esperando “dar un ejemplo” a la iniciativa privada, como si buena parte del problema no sea la conversión de la verdad en una mercancía y en un negocio, por lo que los incentivos de generar marcas de agua a los contenidos sólo sería en el caso de un producto generado por IA que es comercializado, mientras que las empresas y actores dedicados al negocio del engaño y la persuasión no estarían dispuestos a implementar voluntariamente una marca de agua en sus productos, tal como las empresas de marketing político, publicidad y relaciones públicas
Se establece que el documento “garantizará que la comunidad militar y de inteligencia de los Estados Unidos utilice la IA de forma segura, ética y eficaz en sus misiones”, como si el desarrollo de los modelos de inteligencia artificial no debieran seguir los mismos estándares, especialmente en lo que corresponde al desarrollo ético de la tecnología.
En el caso de las medidas para proteger la privacidad, buena parte de las soluciones propuestas únicamente atienden a las soluciones técnicas y tecnológicas como las herramientas criptográficas,dejando de lado las prácticas, el modelo de negocio o los grandes monopolios de datos. Ya ni de diga una ley de datos personales que tenga en cuenta la información comercial y los grandes modelos de inteligencia artificial.
Además, en el documento se persigue atender el problema de la discriminación algorítmica mediante una serie de medidas, una de ellas la coordinación entre “el Departamento de Justicia y las oficinas federales de derechos civiles sobre las mejores prácticas para investigar y procesar violaciones de derechos civiles relacionadas con la IA”; sin embargo, y tal como ocurre con otros programas no basados en inteligencia artificial, resulta bastante difícil identificar si uno mismo es víctima de discriminación algorítmica debido a que las instancias desarrolladoras son totalmente opacas en la lógica de construcción y funcionamiento de sus productos, por lo que mientras no se atienda la opacidad en el desarrollo tecnológico, será bastante difícil saber y probar que existe un problema de discriminación algorítmica en primer instancia.
Como otro punto está “garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas sobre el uso de la IA”; sin embargo, ¿qué pasa cuando el propio sistema es desigual?
El punto que corresponde a la educación resulta bastante limitado debido a lo escueto de su alcance, este propone “Dar forma al potencial de la IA para transformar la educación mediante la creación de recursos para ayudar a los educadores a implementar herramientas educativas habilitadas para la IA, como tutorías personalizadas en las escuelas.”
Resulta evidente que este punto no toma en cuenta problemas como el acceso a la educación o el acceso a la tecnología en instituciones de educación; además, la inteligencia artificial no sólo va a cambiar las herramientas educativas, sino la propia experiencia educativa, al influir en las habilidades y fortalezas de las nuevas generaciones.
Me parece alarmante que una estrategia de un de tema tan novedoso y desconocido para buena parte de la población, incluido el sector público, no venga acompañado de una robusta sección de educación que no sólo incluya las aulas, sino que abarque a la población en general y en especial al personal de la función pública, ni se diga la necesidad de la actualización de la clase política, especialmente en el caso del poder legislativo.
En el caso de la protección de los trabajadores, resulta interesante que se da por hecho el desplazamiento laboral, por lo que la Orden Ejecutiva busca “estudiar e identificar opciones para fortalecer el apoyo federal a los trabajadores que enfrentan interrupciones laborales, incluidas las provocadas por la IA” ¡por que el gobierno no busca la manera de evitar que los contratistas usen a la inteligencia artificial como un fin (sustituir al trabajador) y no como un medio (aumentar las capacidades de los trabajadores mediante herramientas basadas en la inteligencia artificial)? Y en el caso de una sustitución de la fuerza de trabajo como último proyecto, una opción sería apostar por programas como una renta básica universal, sostenida por fuertes impuestos a las empresas beneficiadas de la sustitución de cierto porcentaje de su fuerza laboral.
Por su parte, el punto que se refiere a la “Promoción de la innovación y la competencia” no tiene en consideración en absoluto el problema que significan los actuales monopolios tecnológicos para la innovación y la competencia, sino que el documento centra su atención en alimentar y promover el modelo de innovación y competencia existente a través de medidas como:
Fomentar el acceso de investigación y educación a recursos de cómputo y datos; así como promover a las pequeñas empresas y sus productos (lo que se traduce en seguir apoyando el modelo de startups, el cual ha beneficiado sobre todo a las grandes empresas) la tercer medida se asocia con la atracción y retención de talento de otros países,
El punto “Impulsando el liderazgo estadounidense en el extranjero” habla sobre la necesidad de expandir la cooperación internacional con otros países en inteligencia artificial para mitigar riesgos; así como el desarrollo y establecimiento de estándares internacionales. Esta visión parece estar en sintonía con la relación de liderazgo hegemónico que Estados Unidos históricamente ha tenido con el mundo digital; sin embargo, dada la competencia tecnológica que existe entre China y Estados Unidos, es evidente que los objetivos de la presente Orden Ejecutiva tienen un alcance limitado y seguramente excluyente.
Más allá de sus limitaciones, este esfuerzo representa un modelo que seguramente tendrá repercusiones en como otros países regulan a la inteligencia artificial; además, al tratarse de Estados Unidos, cualquier regulación de sus empresas incide y es exportada a nivel internacional.