Google lanza sus siete mandamientos sobre tecnología

No dañarás. Las personas están antes que todo lo demás: he ahí el resumen de unos principios que suponen todo un punto de partida ético

19 jun 2018 / 00:01 h - Actualizado: 18 jun 2018 / 00:01 h.
"Temas de portada","Vivir con la inteligencia artificial"
  • Google lanza sus siete mandamientos sobre tecnología

Google ha abierto el melón de la ética, si se puede usar una metáfora tan campera para hablar de inteligencia artificial. Sus siete mandamientos dados a conocer este mes son un punto de partida para la reflexión y un test para comprobar hasta dónde se llega con el invento. Según Sundar Pichai, director general de Google, «en el fondo, la inteligencia artificial es una programación que aprende y se adapta. No puede resolver todos los problemas, pero su potencial para mejorar nuestras vidas es profundo».

«Más allá de nuestros productos, estamos empleando la inteligencia artificial para ayudar a las personas a abordar problemas urgentes. Un par de estudiantes de secundaria están construyendo sensores con inteligencia artificial para predecir el riesgo de incendios forestales. Los agricultores la usan para controlar la salud de sus rebaños. Los médicos empiezan a utilizarla para ayudar a diagnosticar el cáncer y prevenir la ceguera. Estos claros beneficios son la razón por la cual Google invierte mucho en investigación y desarrollo de la inteligencia artificial».

«Reconocemos», prosigue Pichai, «que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso. Cómo se desarrolle y use tendrá un impacto importante en la sociedad durante muchos años». De ahí estos «siete principios para guiar» su trabajo en el futuro. «Estos no son conceptos teóricos; son estándares concretos que gobernarán activamente nuestra investigación y desarrollo de productos e influirán en nuestras decisiones comerciales».

El manifiesto de Google sostiene, en su primer mandamiento, que la inteligencia artificial tiene que ser «socialmente beneficiosa» en una amplia gama de campos. La compañía procederá a su desarrollo cuando entienda «que los beneficios probables generales exceden sustancialmente los riesgos y las desventajas previsibles».

El segundo principio es luchar contra los prejuicios, «particularmente los relacionados con características sensibles tales como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas».

El tercer pilar ético es la seguridad. El cuarto, que las personas sean quienes tengan bajo su control la inteligencia artificial. El quinto, y muy polémico asunto, es el de la privacidad de las personas, otorgando «la oportunidad de recibir aviso y consentimiento», alentando «las arquitecturas con garantías de privacidad» y brindando «la transparencia y el control apropiados sobre el uso de los datos». El sexto mandamiento: Mantener altos estándares de excelencia científica. Y el séptimo, «estar disponible para usos que estén de acuerdo con estos principios».

Además, Google ha dicho también qué no hará con la inteligencia artificial: favorecer tecnologías que causan o pueden causar un daño general; armas u otras tecnologías lesivas; las que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas; las que infringen el derecho internacional y los derechos humanos. «Queremos dejar claro que, si bien no estamos desarrollando inteligencia artificial para su uso en armas, continuaremos nuestro trabajo con gobiernos y militares en muchas otras áreas», explica el responsable de Google.