Noticias Tecnología

Sundar Pichai: “No albergo dudas de que la inteligencia artificial ha de ser regulada; la cuestión es cómo”

El CEO de Alphabet y Google asegura “que la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas” y que estas lecciones nos enseñan que tenemos que “estar alertas de lo que puede salir mal”, asegura en un artículo de opinión para el diario Financial Times. El ejecutivo admite hay “preocupación real” sobre las potenciales consecuencias negativas de la IA, desde los llamados deepfakes hasta los “usos viles” del reconocimiento facial. “ya ha habido trabajo en este sentido para atacar estas preocupaciones, pero habrá inevitablemente más retos que ninguna compañía o industria puede resolver por sí misma”.

Pichai asumió recientemente todo el poder después de que a principios de diciembre Larry Page, cofundador de Google y hasta ahora consejero delegado de Alphabet, abandonara el cargo y lo dejase en manos de Sundar Pichai, que sumará este puesto al de CEO de Google. Asimismo, el Sergey Brin, también fundador de Google, abandonó su puesto de presidente de Alphabet, un cargo que además desaparecerá de la estructura de la compañía.

La publicación de este artículo coincide con la visita de Sundar Pichai a Bruselas para reunirse con la comisaria de la Competencia, Margrethe Vestager, cuyo trabajo ha costado a Google cerca de 8.000 millones en multas. Pichai, además, ofrecerá un discurso sobre inteligencia artificial responsable en Bruselas antes de acudir a la cumbre de Davos,   

En este artículo escrito ya como primer ejecutivo del gigante tecnológico, Pichai recuerda que tanto la UE como EE UU “están empezando a desarrollar propuestas regulatorias”. El viernes pasado, de hecho, se filtró un libro blanco que prepara la Comisión Europea en el que se plantea la posibilidad de prohibir el uso de la tecnología de reconocimiento facial en lugares públicos por un periodo de hasta cinco años con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que supone.

“Para llegar ahí, necesitamos acuerdo en valores clave. Compañías como la nuestra no pueden solo construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado sean las que determinen cómo se usan”. 

Google, por eso, publicó sus propios principios para asegurar el desarrollo ético de la inteligencia artificial, asegura Sundar Pichai en el artículo. “Estas pautas nos ayudan a evitar los prejuicios, realizar pruebas rigurosas de seguridad, diseñar teniendo en cuenta la privacidad y hacer que la tecnología rinda cuentas a las personas”, asegura. “Pero los principios que quedan en el papel no tienen sentido”, explica. Por lo tanto, también hemos desarrollado herramientas para ponerlas en práctica, como probar las decisiones de AI para ser justos y realizar evaluaciones independientes de los derechos humanos de los nuevos productos”.

El directivo indio manifiesta que han “ido aún más lejos” y han puesto estas herramientas herramientas y el código de código abierto relacionado ampliamente disponibles, lo que permitirá a otros usar AI para siempre. “Creemos que cualquier empresa que desarrolle nuevas herramientas de IA también debe adoptar principios rectores y procesos de revisión rigurosos”. 

Fuente: EL PAÍS
Ir al artículo original

You may also like