Propuesta de Google sobre política de IA: Claves y desafíos

Google presenta recomendaciones clave para la política de IA, abarcando derechos de autor, control de exportaciones e inversión en I+D.
TechCrunch
Edificio con un cartel de colores sobre fondo azul
Fotografía de un edificio con un cartel de colores en la parte superior.

Propuesta de Google sobre política de IA

Google ha presentado una propuesta de política sobre inteligencia artificial (IA) en respuesta a la iniciativa del gobierno estadounidense para elaborar un \»Plan de Acción sobre IA\». Entre las recomendaciones, destacan aquellas relacionadas con derechos de autor y control de exportaciones.

Derechos de autor y uso justo

Google sostiene que las restricciones actuales sobre derechos de autor pueden obstaculizar la innovación en IA. La empresa apoya las excepciones de \»uso justominería de texto y datos\» para permitir el uso de datos con copyright en el entrenamiento de IA.

Explicado de forma sencilla, \»uso justo\» significa que ciertos materiales con copyright pueden ser utilizados sin permiso para propósitos específicos, como la investigación. Esto es crucial para que las compañías de IA usen libremente datos disponibles públicamente.

Controles de exportación equilibrados

Google se posiciona en contra de algunos controles de exportación impuestos por la administración Biden, que podrían afectar la competitividad económica de Estados Unidos. La compañía sugiere que las restricciones deben proteger la seguridad nacional sin obstaculizar las exportaciones ni las operaciones comerciales.

El control de exportación se refiere a las regulaciones gubernamentales que limitan el envío de tecnología avanzada a otros países. Google busca un equilibrio que permita la exportación de tecnología sin comprometer la seguridad.

Inversión en I+D e infraestructura

La propuesta de Google también pide una mayor inversión gubernamental en investigación y desarrollo (I+D), y en la creación de infraestructura que favorezca la innovación en IA.

Google considera que el gobierno debería liberar conjuntos de datos para facilitar la formación de IA y proporcionar financiamiento para proyectos de I+D en sus etapas iniciales. Esto apoyaría el acceso a recursos tecnológicos por parte de científicos e instituciones.

Necesidad de legislación federal unificada

Google advierte sobre el entorno regulatorio impredecible en Estados Unidos debido a las leyes estatales fragmentadas sobre IA y urge al gobierno a implementar legislación federal integral.

La diversidad de leyes estatales dificulta la claridad en cuanto a privacidad y seguridad en IA. Una legislación federal unificada establecería normas claras y comunes para todo el país.

Responsabilidades en el uso de la IA

Google critica las obligaciones excesivas que algunos legisladores quieren imponer a los desarrolladores de IA en caso de mal uso. La empresa insiste en que no siempre tienen control sobre cómo se utilizan sus modelos y no deberían ser responsables del uso indebido por parte de terceros.

En caso de problemas, Google sugiere que los responsables del uso de los modelos son quienes deberían gestionar los riesgos y realizar el seguimiento posterior a la implantación de los modelos.

Este resumen refleja las preocupaciones y recomendaciones de Google en su propuesta de política de IA, marcando la importancia de un entorno regulatorio flexible que fomente la innovación sin perder de vista la responsabilidad y seguridad.