Café doble
Marzo 31, 2023 - 3 min

Carrera Artificial

Creo que es momento de detenernos y pensar en los problemas éticos y morales que surgen cuando quien toma una decisión no es una persona.

Comparte

Medio en broma, medio en serio, hace unas semanas utilicé ChatGPT para escribir una columna en este mismo espacio. Es cierto que tuve que arreglar varias cosas, darle más continuidad a la lectura y disminuir la cantidad de puntos seguidos y palabras repetidas, para que no pareciera que la escribió un robot (no pun intended). Sin embargo, el resultado fue más que aceptable y mi intervención fue para darle “mi toque” más que para corregir, por ejemplo, el fondo del escrito. De todas maneras, esto no demuestra nada, ya que para otro tipo de tareas su desempeño aún es bastante pobre y sigue fallando al momento de contrastar fuentes que pueden decir cosas contradictorias. Por el momento.

Aunque este tipo de experimentos ha continuado (copiones), la dependencia del debate entre Inteligencia artificial y ChatGPT puede hacer creer al público que son sinónimos y que el desarrollo futuro tiene que ver con los problemas que describí en el párrafo anterior. Nada más lejos de la realidad. Tal como la tecnología del blockchain no se trata sólo de cryptomonedas, la Inteligencia artificial no es sólo un generador de texto. Y la carrera desatada por ser el primero en lanzar la siguiente gran herramienta ha llevado a que una serie de preguntas y debates no hayan tenido la profundidad suficiente o siquiera la oportunidad de llevarse a cabo. Por ejemplo, un botón: ante un evento fortuito, en el que un accidente es inevitable y terceros se podrían ver afectados, ¿a quién debería privilegiar salvar un vehículo de conducción autónoma?

Por esto, es que un grupo de líderes mundiales (y economistas menores en el fin del mundo), participantes del Future of Life Institute, firmaron una carta abierta en la que piden que los grandes experimentos de inteligencia artificial entren en pausa, por lo menos por seis meses. Pausa que, según los autores, debiese ser pública y verificable y, en el caso de no poder llevarse a cabo rápidamente, ser impuesta por los gobiernos. Las razones son claras: desarrollar una serie de protocolos que permitan que la acción de las IA sea segura más allá de cualquier duda razonable;  trabajar con los gobiernos y autoridades para desarrollar instituciones robustas y capaces de supervisar las IA, de monitorear su progreso y crecimiento, crear “marcas de agua” que permitan identificar lo real de lo sintético ante filtraciones de los modelos, etc. Por último, y no menos importante, generar fondos para minimizar los impactos sociales y económicos de los cambios drásticos en la vida y trabajos de las personas que la aplicación rápida de la IA pueda provocar, incluso amenazando la democracia.

En una escala personal, creo que es momento de detenernos y pensar en los problemas éticos y morales que surgen cuando quien toma una decisión no es una persona. Es más, puede haber sido una persona, la que diseñó y programó la IA, pero que no necesariamente representa el sentir de la sociedad ni mucho menos fue electa (de nuevo, en una democracia) para ello. Volvamos a la pregunta del vehículo de conducción autónoma. Algunos fabricantes ya tienen la respuesta para aquello: el vehículo siempre intentará minimizar el impacto negativo a sus ocupantes. Puede parecer obvio, pero déjenme interferir un poco con esta idea: ¿y si los ocupantes son narcotraficantes que huyen de un crimen y, luego de pasar por una zona resbalosa, se dirigen directamente a un grupo de mujeres embarazadas que regresan de una clase de yoga prenatal? Quizás muy exagerado, pensemos en una más fácil: En el auto va un científico con la cura para el cáncer, pero el vehículo perdió el control y atropellará (de no mediar un movimiento de volante que mandará al vehículo a un barranco) a la persona que usted más ama en el mundo. ¿Fue más fácil la decisión? ¿Existe una respuesta correcta a estos dilemas? ¿Debería tomar estas decisiones quien programó la IA, con sus sesgos y experiencias, o debiese ser un organismo electo por los ciudadanos? ¿Qué ciudadanos? ¿Hay un estándar ético global o debiese separarse por culturas, naciones o estilos de vida? Recuerde que esto es sólo un botón, un ejemplo, ya que tal como la IA no es sólo ChatGPT, tampoco es sólo la conducción autónoma.

Seis meses podría ser poco tiempo, pero es mejor que nada. No podremos resolver todo, es cierto, pero nos permitirá pensar en cómo ordenamos lo que tenemos y para dónde queremos que continúe todo esto. Porque, por lo menos yo, no quiero una tiranía de quienes manejan hoy las compañías de IA, incluso aunque no lo busquen, ni mucho menos, un Skynet.

 

Nathan Pincheira

Economista Jefe de Fynsa