Foto: XATAKA
Pausar inmediatamente y durante al menos seis meses el entrenamiento de sistemas de IA más potentes que GPT-4. Esa es la idea detrás de una carta firmada por más de 1,000 personalidades del mundo tecnológico, entre las que se encuentran Elon Musk, Steve Wozniak, el cofundador de Apple, así como Jaan Tallinn, cofundador de Skype, y hasta el CEO de Getty Images, Craig Peters.
El documento cuestiona el rápido avance de los sistemas que utilizan inteligencia artificial y buscan poner un alto al desarrollo de tecnologías con capacidades superiores a las de GPT-4, presentado recientemente.
A pesar de lo que parezca, los firmantes dicen no estar en contra del desarrollo de tecnologías de IA, sino que consideran que su avance puede ser un gran cambio para la historia, siempre y cuando se gestione de forma adecuada, pues advierten que ni siquiera los creadores de los sistemas son capaces de entender o predecir de forma fiable la manera en que se comportan.
La falta de control de la IA y la necesidad de reglas de juego
En las ideas del documento se aborda que los sistemas actuales de IA están llegando a competir con los humanos en algunas de las tareas generales, trayendo a la mesa cuestionamientos sobre si se debería permitir que "las máquinas inunden los canales de información con propaganda y falsedades" o si es correcto automatizar los trabajos y continuar con el desarrollo de "mentes no humanas" que con el tiempo nos puedan superar en número, inteligencia, obsolescencia, terminando por reemplazarnos.
A pesar de la premisa inicial, los firmantes no piden una pausa completa en el desarrollo de las IAs, sino que buscan hacer "un paso atrás" para evitar tener modelos "impredecibles y cada vez con más capacidades emergentes", por lo que se deben conseguir sistemas "de vanguardia" que sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y sobre todo leales.
Para lograrlo en la carta se establecen una serie de procesos: hacer más fiables y seguros los sistemas de IA, el desarrollo de nuevos protocolos de seguridad, lo que también lleva a la creación de determinados estándares generales para el uso de los modelos.
De la mano de estos lineamientos, la carta también apunta a que es necesario una regulación legal entorno a las IAs, considerando desde los posibles daños creados por estas, el seguimiento de posibles fugas de datos de los modelos, así como instituciones que puedan hacer frente a las perturbaciones económicas y políticas provocadas por las Inteligencias Artificiales.
Un riesgo similar ya ha sido abordado por otras voces, como la de Bill Gates, que detalla que hay un peligro de que se use mal la tecnología, que las IAs funcionen sin control, o que hasta existan Inteligencias Artificiales "superinteligentes" que puedan establecer sus propios objetivos.
Creditos: XATAKA
Comments