Condiciones genéricas en la Inteligencia Artificial

El caso de Sophia es relevante porque ha sido construida intencionalmente para ser un robot con carácter. Esto significa, según su creador David Hanson, robots personajes con los que puedas crear lazos afectivos.

Por: Emma Baizabal

Estamos viviendo el futuro que hace algunos siglos soñamos y que durante los últimos años nos ha causado más bien pesadillas: el brillo de la Inteligencia Artificial (IA).

Si bien los autómatas han estado entre nosotros por siglos, la intención de dotarlos de una capacidad intelectual que permita transformar el automatismo mecánico en una especie de intencionalidad “propia” se ha concretizado poco a poco en los últimos 60 años y apenas comienza a evidenciar sus frutos.

Hace poco más de dos meses hizo eco la noticia de un androide con IA al cual le fue otorgada la ciudadanía por el Reino de Arabia Saudita. Sophia, creada por la empresa estadounidense, con base en Hong Kong Hanson Robotics (HR), fue presentada en entrevista ante la Iniciativa para Inversión Futura con sede en el país árabe. Durante las semanas siguientes los tabloides internacionales acapararon la atención del asunto. Si bien los medios mexicanos fueron poco receptivos a la primicia, no tardaron en evidenciar  también el conflicto que se había desatado e incluso se aprovechó el momento para destapar a Sophia como una de las conferencistas invitadas en el Jalisco Talent Land 2018.

Por un lado, se confrontaba la promesa de futuro con el riesgo latente en nuestra excesiva confianza en los sistemas autónomos no exclusivos de entornos tecnológicos sino en contextos sociales y humanitarios. Por otro lado, se discute la pertinencia de otorgar la ciudadanía a un androide, sobre todo en un contexto socio-político caracterizado por su ultraconservadurismo y las fuertes normas que éste impone a sus ciudadanas, como el uso de una vestimenta específica y el acompañamiento necesario de un tutor masculino.[1] Características que entre otras como convertirse al islam y hablar árabe, Sophia no cumple.

Ante la cada vez más inminente interacción entre inteligencia humana y artificial, se acentúan todo tipo de preguntas: ¿es posible prever todos los rangos de acción de un androide para marcar sus pautas éticas? ¿Es posible que tomen consciencia de su posición meramente instrumental y decidan, como los obreros y campesinos oprimidos, sublevarse? ¿Debemos sentir vergüenza ante la perfección de estas máquinas que marcan una nueva era para lo humano? Todas estas preguntas son válidas y han sido asumidas por muchas áreas de estudio. Sin embargo lo que en adelante me interesa apuntar como camino para ser pensado es la producción de IA desde un sesgo genérico propio del modelo económico.[2]

El caso de Sophia es relevante porque ha sido construida intencionalmente para ser un robot con carácter. Esto significa, según su creador David Hanson, robots personajes con los que puedas crear lazos afectivos. Esto tiene sentido para un objetivo que, en palabras de Sophia, es el de “entablar comunicación e interacción con humanos para generar confianza y colaborar en la construcción de una mejor vida, en mejores condiciones para una mejor ciudad”(sic). Curiosamente esta “colaboración” implica un mejoramiento de la interacción entre máquinas y humanos que no posibilita ni depende del “mejoramiento” intelectual de éstos sino de los robots y de su posibilidad de entablar relaciones empáticas con nosotros. La empatía es leitmotiv en la construcción de androides, ya no se trata de un robot cualquiera que puede desempeñar ciertos trabajos igual o mejor que los humanos, se trata de combatir el miedo que llegó a nosotros con la revolución industrial: perder nuestro trabajo, nuestra vida cotidiana e incluso a nosotros mismos, por culpa de la máquina. Se combate el miedo de lo extraño con lo semejante, el miedo romántico a la máquina automática, fría y despersonalizada, con un androide mujer, delicado, gracioso y extrovertido, con el que podemos crear vínculos.

La relación entre género y dispositivos inteligentes ha sido apuntada ya, entre otras, por Jacqueline Feldman. En un sugestivo artículo la autora enfatiza la relación entre las violentas dinámicas que establecen los usuarios con bots de asistencia creadas con IA, tales como Siri o Alexa, con su simulada identidad femenina. De la misma manera que para Sophia su caracterización femenina la pone en circunstancias específicas donde el juego de los roles se vuelve claro.[3]  Estas dinámicas, dice Feldman, en las que los juegos de poder y dominación se han evidenciado en los registros de conversaciones, ponen el dedo en la llaga: no se trata sólo de una determinación de producción sino de una relación de integración máquina-humano, en donde las asistencias captan y datan un lugar común: la violencia generizada posible de ser ejercida sobre los aparatos femeninos (sean estos cuerpos “naturales”, artificiales o digitales).

No es una muletilla decir que, en el imaginario social, las mujeres cumplen determinados roles que buscan delimitar la colectividad. En general, características como la delicadeza, la ingenuidad, la subordinación, la emotividad, son fácilmente identificables como propias de las mujeres y/o de los hombres afeminados. Dichas características tienden a ser discriminadas negativamente en ambientes laborales y acotan los estereotipos en el orden social. ¿Qué implicaciones de esto hay en la producción de IA? No es casual que la primera asistente-terapeuta-bot fuera caracterizada mujer: Eliza. También Sophia se muestra mucho más empática y dispuesta a la conciliación y subordinación que su homólogo Han, otro androide creado por HR, que muestra actitudes antipáticas y que juega con los miedos que la ciencia ficción distópica nos ha hecho temer.

Si bien es cierto que el desarrollo y aprendizaje de las IA se juega en términos más dinámicos y contextuales, no podemos reservar la reproducción estereotipada de géneros al uso y al consumo. Hay una franja sutil entre la necesidad propiamente técnica, el machine learning de sistemas autónomos complejos, y la aparente necesidad de valores genéricos propios de la interacción humana. Como si esta asignación no llevara implícita cierta violencia, cierto ejercicio de dominación y sometimiento. No se trata de si Alexa o Sophia se sentirán vulnerables por el hecho de encarnar cuerpos o imaginarios femeninos ante las actitudes de objetivación que pueden producirse en su contacto humano, como tampoco es suficiente preguntarse si ante la permanente objetivación de estas IA se está siempre en peligro de tratar al resto de las mujeres como objetos.[4]

Me parece más urgente cuestionar cuáles son los valores que la producción técnica en general, pero de asistencias de IA en particular, prepondera como valores dignos de ser perpetuados y no como valores que pueden ser transformados, en consonancia con la ruta de progreso que, si bien puede ser cuestionable, parece lugar común entre los tecnófilos. Si se trata de una mejor comprensión entre lo humano y lo técnico por qué no hacerlo de manera creativa, reevaluando los supuestos de nuestras interacciones en lugar de perpetuar sus problemáticas.

Decía Gilbert Simondon que el proceso técnico se configura a sí mismo, como sistema dinámico complejo, desde sus propias indeterminaciones. La relación que se establece entre estos objetos y los humanos atraviesa una especie de destecnologización e historialización, se le despoja de su evidente tecnicidad al robot para restituirlo como semejante y subalterno, como androide sirviente. Ahí donde pensamos las IA restringidas al plano instrumental, donde sólo “cobran vida” para servirnos, parece imposible no ser víctimas de la dicotomía genérica.

 

* Emma Baizabal es Pasante de la Facultad de Filosofía y Letras, UNAM.

Las opiniones publicadas en este blog son responsabilidad únicamente de sus autores. No expresan una opinión de consenso de los seminarios ni tampoco una posición institucional del PUB-UNAM. Todo comentario, réplica o crítica es bienvenido.

Fuentes:

[1] Esta discusión es interesante porque permite comprobar la complejidad social a la que responden los rasgos genéricos culturalmente apropiados. La discusión sobre si Sophia debería usar un hiyab o ser escoltada por un hombre  que responda por ella, pasa por el problema de la sexualización de los cuerpos de las mujeres y la estrecha relación, al sentido común, entre lo sexual y lo genérico.

[2] Asumo que el sesgo genérico responde más a una dinámica económica capitalista que sólo a un ethos propio de cada cultura.

[3] En este sentido, podríamos señalar también los programas televisivos mañaneros internacionales que han tenido a Sophia como invitada y suelen enfatizar preguntas sobre sus preferencias emocionales  así como insinuaciones de hombres que la perciben atractiva.

[4] Una discusión interesante cuando se piensan las IA’s diseñadas para cumplir la función de robots sexuales, como instrumentos de satisfacción de deseos o de perpetuación de imaginarios violentos.

Close
Comentarios