La tecnológica terminará convenio con el gobierno para el desarrollo de drones de inteligencia militar y anuncia lineamientos para el uso de la IA en futuros proyectos.
08/06/18 | Por Noticias TNE
Sundar Pichai, director ejecutivo de Google, dio a conocer este jueves un conjunto de principios en cuanto a la forma en que la tecnológica de Mountain View, California, diseñará e implementará sus herramientas de software de inteligencia artificial en el futuro.
Esta decisión viene poco después de que Google decidiera desechar Project Maven, un acuerdo que tenía con el ejército de los Estados Unidos para desarrollar drones militares, después de que más de cuatro mil colaboradores dentro de la empresa mostraran su inconformidad en el tema. Aun así, la compañía seguirá trabajando con el ejército en otras áreas, dando a su negocio en la nube la oportunidad de buscar futuros acuerdos gubernamentales lucrativos.
“Cómo se desarrolla y usa la IA tendrá un impacto significativo en la sociedad por muchos años en el futuro”, escribió Pichai en una publicación de blog. “Como líderes en inteligencia artificial, nos sentimos especialmente responsables de hacerlo bien”.
De acuerdo a estos nuevos lineamientos de Google, de ahora en adelante la empresa solamente trabajará con IA si:
1. Beneficia a la sociedad: se tomará en cuenta una amplia gama de factores sociales y económicos, procediendo con el concepto únicamente cuando se considere que los probables beneficios exceden sustancialmente los riesgos y las desventajas previsibles.
2. Evita crear o reforzar el sesgo injusto: la empresa tratará de evitar impactos arbitrarios en las personas, particularmente aquellos relacionados con características sensibles tales como raza, etnia, género, nacionalidad, estatus económico, orientación sexual y creencias políticas o religiosas.
3. Comprueba que es segura: se desarrollarán y aplicarán prácticas sólidas de seguridad y protección para evitar resultados involuntarios que creen riesgos. Además, se diseñarán sistemas de acuerdo a las mejores prácticas en la investigación de seguridad de IA. En los casos que así convenga, se probarán las tecnologías en entornos restringidos, supervisando su funcionamiento después de la implementación.
4. Se responsabiliza ante las personas: se brindarán oportunidades apropiadas para comentarios y explicaciones relevantes. Las tecnologías estarán sujetas a la dirección y el control humano adecuado.
5. Incorpora principios de privacidad: otorgará la oportunidad de recibir aviso y consentimiento, alentando las arquitecturas con garantías de privacidad, además de brindar transparencia y un control apropiado sobre el uso de los datos.
6. Mantiene altos estándares de excelencia científica: Google trabajará con una variedad de partes interesadas para promover el liderazgo en esta área, recurriendo a enfoques científicamente rigurosos y multidisciplinarios. Además, se compartirá de forma responsable todo el conocimiento obtenido mediante la publicación de materiales educativos, mejores prácticas e investigaciones que permitan a más personas desarrollar aplicaciones útiles.
7. Se pone en disponibilidad de uso mientras respete todo lo anterior: cada vez que se plantee un proyecto, se analizará cuál es el mejor camino a seguir dependiendo de la naturaleza y la escala de la situación.
Google también enumeró una serie de aplicaciones en cuanto al uso de la IA en las que nunca se vería envuelto, como: desarrollo de tecnologías con el potencial de causar daño a alguien, armas u otro tipo de artefactos que tengan el propósito de lastimar, dispositivos que reúnan información a partir del espionaje o darle cualquier otro fin que vaya en contra de los derechos humanos.
Te puede interesar también: