La confianza anda fallando entre los desarrolladores de Inteligencia Artificial. Microsoft renunció a su puesto como observador en la junta directiva de OpenAI y Apple ni siquiera quiso ocupar su lugar en el equipo, como ya tenían acordado.
La renuncia de Microsoft ocurrió a través de una carta en la que expresó que su decisión entraba en vigor de forma “inmediata”, de acuerdo con un artículo del Financial Times. Y aquí es donde esta telenovela se pone interesante…
La decisión parece sorpresiva con estos datos: Microsoft ya ha hecho inversiones en el desarrollo de ChatGPT por 13 mil millones de dólares, desde inicios de 2023. De su lado, Apple anunció en junio que estaba listo para incorporar la inteligencia artificial de OpenAI a sus dispositivos a través de su próximo sistema iOS 18. Este acuerdo incluía el puesto de observador para la empresa de la manzana.
Una vocera de OpenAI dijo que la empresa va a sustituir los dos puestos en el consejo con reuniones “periódicas con socios como Microsoft, Apple y los inversores Thrive Capital y Khosla Ventures".
De acuerdo con expertos, el cambio de opinión de Apple y Microsoft “está relacionado con las investigaciones que tanto la Unión Europea como Estados Unidos están llevando a cabo” sobre el avance, implementación e inversiones en los proyectos de Inteligencia Artificial.
Gigantes de la IA, obligados a cuidar sus pasos.
Por supuesto, OpenAI no es el único desarrollador de Inteligencia Artificial, pero ha ganado atención mediática al ir mucho más rápido que sus competidores. Google, por ejemplo, ha sido más cauteloso con servicios como su chatbot, Bard, y desde un inicio dio una explicación contundente: teme que un error pueda impactar negativamente en su reputación.
Gobiernos, organizaciones, y asociaciones civiles alrededor del mundo; aceleran marcos normativos para evitar una adopción desordenada de la Inteligencia Artificial. Se trata de un intento por evitar el mismo error, cometido a finales del siglo XX, cuando las regulaciones sobre el uso de Internet llegaron de forma tardía.
La creación de “Frontier Model Forum” en julio de 2023 ha sido una de las respuestas de las tecnológicas a estas preocupaciones. El organismo industrial integrado por Google, OpenAI, Microsoft y Anthropic busca “garantizar el desarrollo seguro y responsable de modelos fronterizos de IA”. Veremos si siguen juntos después de todo esto.
Otro paso ha sido la reciente conformación de AISIC, “Consorcio del Instituto de Seguridad de IA” en español, que agrupa a más de 200 empresas y entidades especializadas en Inteligencia Artificial. Trabajarán en colaboración con el gobierno estadounidense en busca de un despliegue de la IA que permita el aprovechamiento de su potencial, estableciendo estándares comunes de seguridad.
La ética vs los negocios
La disputa ética, como siempre, se enfrenta al interés comercial. El banco de datos Statista estima que, para 2025, el valor de mercado de los software de IA podría alcanzar unos 126 mil millones de dólares. Sin duda, cualquier pedazo de ese pastel es atractivo.
Y mientras el uso de IA se sigue debatiendo a todos niveles, muchos de nosotros ya estamos participando en el entrenamiento diario – y gratuito – que mejora estos sistemas de aprendizaje artificial. Nuestras tareas cotidianas como generación de textos, imágenes o búsqueda de información, son oro molido para las tecnológicas en este momento.
Comments