Por una IA responsable

Por una IA responsable

Google se está uniendo a Facebook , Stanford y otros equipos que están estableciendo instituciones para apoyar la inteligencia éticaLa compañía ha creado un Consejo Consultivo Externo de Tecnología Avanzada que dará forma al «desarrollo y uso responsable» de AI en sus productos.

La organización reflexionará sobre el reconocimiento facial, los algoritmos de aprendizaje justo de la máquina y otras cuestiones éticas. El consejo inicial es un grupo diverso que aborda una variedad de disciplinas y experiencias.

Los asesores actuales incluyen académicos enfocados tanto en aspectos técnicos de la IA (como matemáticas computacionales y drones) como expertos en ética, privacidad y política política. También hay un enfoque internacional, con personas que van desde lugares tan lejanos como Hong Kong y Sudáfrica.

ATEAC celebrará su primera reunión en abril y planea tres más en el transcurso de 2019. Y aunque claramente jugarán un papel en el proceso de desarrollo de Google, la compañía publicará resúmenes de sus charlas y alentará a los miembros a compartir información «generalizable» con sus socios. organizaciones existentes. El objetivo es mejorar la industria tecnológica en su conjunto, no solo el trabajo de Google.

La creación del consejo sigue la promesa de Google de abrazar la inteligencia ética después de la controversia sobre su participación en la iniciativa de aviones no tripulados Project Maven del ejército estadounidense . Efectivamente, Google está tratando de evitar repetir la historia pidiéndole al consejo que cuestione sus decisiones.

Así como en la Biblia encontramos las 7 promesas que Dios le hizo a Abraham, Google hizo las suyas hacia el departamento de defensa de los EE.UU. Por favor no vaya a pensar que esto es simbólico. Fabián Sorrentino.

Las 7 Promesas de Google sobre una Inteligencia Ética

La colaboración de Google con el Departamento de Defensa para desarrollar sistemas de inteligencia artificial para la flota de drones de guerra del ejército estadounidense, apodado Proyecto Maven, resultó ser un arma de doble filo para la compañía de tecnología. Por un lado, el contrato del DoD era bastante lucrativo, con un valor de hasta $ 250 millones anuales .

Por otro lado, la reacción del público ante la noticia de que la compañía estaba ayudando al gobierno a construir máquinas de matar más eficientes fue inmediata, inquebrantable y absolutamente despiadada. Una docena de empleados abandonaron la empresa en protesta, otros 4,000 solicitaron a la gerencia que rescindiera el contrato de manera absoluta. El alboroto fue tan ensordecedor que Google tuvo que salir y prometer no renovar el acuerdo una vez que se complete el próximo año.

Ahora, Sundar Pichai ha ido aún más lejos para calmar al público, lanzando su propia versión de «Las tres leyes» de Asimov. 

Por supuesto, Google no es ajeno al panorama de la IA. La compañía ya aprovecha diversas formas de IA en varios de sus productos, desde Gmail y Fotos hasta su asistente digital de salón de llamadas y el sistema de generación de formas de onda que permite al Asistente hablar. Pero, ¿puede realmente confiarse en que una empresa que eliminó unilateralmente su propio principio guía de «No ser malvado» de la práctica común haga lo correcto al elevar la mente artificial a la madurez?

1. Ser socialmente beneficioso.

El primer punto de Pichai parece ser que todos podrían quedarse atrás. Quiero decir, ¿qué sentido tiene desarrollar nuevas tecnologías si no van a servir al mayor bien de la sociedad en su conjunto? Desafortunadamente, Pichai no incluye detalles apreciables en su publicación, por lo que es difícil averiguar qué significa esto en realidad.

«Al considerar el desarrollo y los usos potenciales de las tecnologías de la IA», escribió, «tomaremos en cuenta una amplia gama de factores sociales y económicos, y continuaremos donde creemos que los beneficios probables en general superan sustancialmente los riesgos y desventajas previsibles. » Eso suena genial y todo, pero ¿quién decide realmente qué riesgos superan cuáles beneficios probables? Por ejemplo, el miércoles, los accionistas de la compañía rechazaron un plan para aumentar los niveles de diversidad de la compañía , uno que fue ampliamente respaldado por los empleados de Google. ¿Debemos creer que estos mismos accionistas actuarán en contra de sus propios intereses financieros para evitar las trampas sociales? La historia del capitalismo dice que no.

2. Evite crear o reforzar sesgos injustos.

«Buscaremos evitar los impactos injustos en las personas», escribió Pichai, «particularmente aquellas relacionadas con características sensibles como la raza, el origen étnico, el género, la nacionalidad, los ingresos, la orientación sexual, la capacidad y las creencias políticas o religiosas». Si Google es capaz de entrenar a una IA sin impartir un sesgo implícito, literalmente es la única compañía que puede hacerlo. Ver: El bot del concurso Beauty.AI , Tay de Microsoft, Zo de Microsoft y aparentemente todos los AI de reconocimiento facial creados hasta la fecha.

3. Ser construido y probado para la seguridad.

«Diseñaremos nuestros sistemas de inteligencia artificial para que sean prudentes», escribió Pichai, «y buscaremos desarrollarlos de acuerdo con las mejores prácticas en la investigación de seguridad de la inteligencia artificial». Esta es una promesa que Google puede mantener fácilmente. El proyecto Maven, por ejemplo, recibió la licencia de código abierto, lo que permitió un grado de transparencia mucho mayor del que sería posible de otra manera. Además, Google ya está involucrado con varias organizaciones de investigación de IA, incluido el Machine Intelligence Research Institute, que se centra precisamente en los procesos de seguridad de AI y en DeepMind Ethics & Society, que busca explorar la ética de la IA. Mientras Google se comprometa a mostrar su trabajo y no a «moverse rápido y romper cosas», veo pocas razones por las cuales la compañía no puede seguir siendo un portador estándar para el desarrollo seguro y confiable de AI.

4. Ser responsable ante las personas.

«Nuestras tecnologías de inteligencia artificial estarán sujetas a la dirección y el control humanos adecuados», escribió Pichai. Sí, sí, y se suponía que todos los dinosaurios en Jurassic Park eran mujeres. El problema con esta afirmación es que, al igual que la reserva de armas nucleares de nuestro país, no es la tecnología en sí lo que importa, sino la persona con la autoridad para usarla.

5. Incorporar principios de diseño de privacidad.

Teniendo en cuenta cómo Facebook ha ido tras el escándalo de Cambridge Analytica , solo tiene sentido que Google se presente a sí mismo como un parangón de privacidad. Desafortunadamente, el comportamiento histórico de la compañía no hace mucho para respaldar esa afirmación. Google se enfrenta actualmente a una demanda colectiva en el Reino Unido por su colección de datos personales de usuario a través del navegador Safari. Los senadores estadounidenses están solicitando a la FTC que investigue la recopilación de datos de ubicación de la compañía. Y YouTube está tomando medidas para supuestamente recopilar datos sobre niños menores de 13 años.

6. Mantener altos estándares de excelencia científica.

«Aspiramos a altos estándares de excelencia científica mientras trabajamos para avanzar en el desarrollo de la IA», escribió Pichai. «Compartiremos de manera responsable el conocimiento de AI publicando materiales educativos, mejores prácticas e investigaciones que permitan a más personas desarrollar aplicaciones útiles de AI».

Como en el punto tres anterior, esto debería ser una obviedad para que la empresa lo respalde. A diferencia de las compañías más secretas como Apple o Facebook, Google siempre ha sido honesto con sus esfuerzos de investigación. Google ha abierto instalaciones de investigación de IA en todo el Reino Unido y Canadá y cuenta con investigadores académicos, se asoció con universidades de renombre como UC BerkeleyHarvard y MIT , e incluso colaboró ​​con otras compañías de tecnología para desarrollar directrices de desarrollo ético como parte de la Alianza para AI .

7. Estar disponible para usos que estén de acuerdo con estos principios.

Esencialmente, Pichai afirma que su compañía solo desarrollará AI que se ajusten al marco ético establecido en los primeros seis puntos. Promete que Google «trabajará para limitar las aplicaciones potencialmente dañinas o abusivas» de las máquinas que construye en función de la naturaleza y el uso principal de la tecnología, su escala prevista y la naturaleza de la participación de Google en el proyecto. Cita específicamente armas autónomas, inteligencia artificial de vigilancia, «tecnologías cuyo propósito contraviene los principios ampliamente aceptados del derecho internacional y los derechos humanos» y aquellas que «causan o pueden causar un daño general». Por supuesto, aún queda por ver cómo determinará la compañía lo que constituye un nivel aceptable de daño, como el punto 1 anterior.

En general, seguro, estos son algunos de los grandes axiomas de sonido para vivirPero lo que Pichai no expone es si existirá alguna forma de mecanismo de cumplimiento o en qué tipo de sanciones incurrirá la compañía en caso de que viole estas pautas. Debido a que ninguna cantidad de mea culpas, visitas de disculpa o apariciones del comité de supervisión senatorial serán suficientes cuando una inteligencia artificial se deslice y aplaste a la humanidad bajo el arranque de un levantamiento de robots.

Un desarrollo en Inglés de Jon Fingas y Andrew Tarantola para Engadget

Sobre el Autor

Fabián Sorrentino

El Dr. Fabián Sorrentino es Lic en Comunicación Social y Coach Ontológico especialista en el desarrollo de la creatividad e inteligencias múltiples. Por +25 años se ha dedicado a la Innovación e Identidad corporativa, prestando servicios para empresas en Argentina, Brasil y los Estados Unidos. Como Coach Organizacional lidera procesos en los Estados Unidos, Argentina, Perú, Ecuador, Bolivia y Colombia. Perfil: https://acortar.link/uy2V6z