Google ha actualizado su política de ética en inteligencia artificial, eliminando su promesa de no usar la tecnología para desarrollar armas o vigilancia. Antes, su normativa excluía aplicaciones destinadas a causar daño o a la vigilancia fuera de las normas internacionales, según el archivo de internet Wayback Machine.
Desde el lanzamiento de ChatGPT en 2022, la inteligencia artificial ha avanzado rápidamente, mientras que las regulaciones sobre ética y transparencia no han seguido el mismo ritmo. Ahora, Google parece haber flexibilizado sus propias restricciones en este ámbito.
En un blog publicado el martes, James Manyika y Demis Hassabis destacaron que los marcos de IA en países democráticos han ayudado a Google a comprender mejor su potencial y riesgos. Señalaron que existe una competencia global por el liderazgo en IA y que las democracias deben liderar su desarrollo, basándose en valores como la libertad, la igualdad y el respeto por los derechos humanos.
Google ahora aboga por la colaboración entre empresas, gobiernos y organizaciones que compartan valores democráticos para desarrollar una IA segura y beneficiosa. Sin embargo, esta actualización representa un cambio drástico respecto a sus Principios de IA de 2018.
En ese entonces, Google rechazó un contrato de US$ 10.000 millones con el Pentágono por no alinearse con sus principios. Además, más de 4.000 empleados exigieron una política contra la creación de tecnología militar, y una docena renunció en protesta.
Para profundizar en este tema, te invitamos a leer el artículo completo en la página: https://cnnespanol.cnn.com/2025/02/04/ciencia/google-elimina-tecnologia-ia-armas-vigilancia-trax