La inteligencia artificial no necesita parar, pero sí regulación

04/07/2023 a las 10:07

ES


La privacidad, el desempleo tecnológico derivado de la automatización o el aumento de la brecha socioeconómica, desafíos a los que hacer frente

“La inteligencia artificial (IA) avanzada podría representar un cambio profundo en la historia de la vida en el campo, y deberia planificarse y gestionarse con el cuidado y los recursos correspondientes”. es uno de los argumentos que esgrimen un grupo de empresarios del sector tecnológico, expertos y políticos para solicitar que seis suspendidos durante seis meses los experimentos con inteligencia artificial (IA) más potentes. In tono apocalíptico, sostienen en su misiva, publicada por las organizaciones sin ánimo de lucro ‘Future of Life Institute’, que «los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas» ; .

El primer firmante es el informático canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnología en la que se basan sistemas como ChatGPT. Añadido por Elon Musk, CEO de Tesla, Twitter y SpaceX, también se interpone entre las firmas Steve Wozniak, cofundador de Apple; el intelectual Yuval Noah Harari o el político Andrew Yang, candidato a la presidencia demócrata de Estados Unidos en 2020. También confirmó a los cofundadores de plataformas como Skype, Pinterest o Ripple.

«Comparto el sentido de la carta, lo que no entiendo es lo de la moratoria de seis meses, porque me parece que es un pensamiento ilusorio”, dijo Senén Barro, doctor en Física, catedrático de Ciencias de la Computación e Inteligencia Artificial y director científico del CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela-USC). Tampoco compara «el tono de alarmismo que tiene el mapa, que se ha amplificado mucho en los medios de comunicación, pero sí que tiene cierto tono de preocupación como si estuviera cerca una IA que se nos pudiera escapar a nuestro control», subraya.

«Yo soy de los que cree que llegará un día en el que tendermos una propuesta general AI, not que en colis o actividades puntuales nos supere a nosotros, porque eso ya ocurre, sino que de modo general podemos decir que es una inteligencia que nos supera o nos iguala al menos. Creo que eso será posible algún día, pero hoy ni lo es, ni está cerca; además, no sabemos qué pasos dar ni en qué dirección para eso».

«Ponerse ahora a especular en ese sentido ya alarmarse no tiene objeto», afirma al tiempo que añade que «yo si que creo que hay que preocupare por la inteligencia artificial, al menos ocuparse de ella, porque es el conjunto de tecnologías potencialmente más transformadoras de nuestra vida, de nuestra economía, empleo, educación, salud…, que nunca hemos tenido y estamos comenzando, como quien dice. Ya estamos viendo que cada vez hay nuevos avances, nuevas aplicaciones, cosas que nos sorprenden incluso a los que estamos trabajando en esto, por lo tanto, claro que hay que ocupare de esto y regular los usos de la inteligencia artificial, claro que hay que tratar de anticiparse a los posibles malos usos o incluso errores que puedan cometer en según qué ámbito de aplicación».

«Lo que realmente me pierda preocupa es que lo gobiernosn el control frente a las grandes corporaciones»

En la misiva, los firmantes hacen un «llamamiento a todos los laboratorios de IA» para que paren de inmediato el entrenamiento de los sistemas IA más potentes que GPT-4”, pidiendo incluso la intervención de los gobiernos para imponerla en caso de que se niegue a las partes involucradas la suspensión temporal de las investigaciones.

En referencia a ChatGPT, la catedrática de Ciencias de la Computación de la Universidad de A Coruña, Amparo Alonso, afirma que «la tecnología casi siempre va por delante de la legislación y esto planta una serie de situaciones como, por ejemplo, en cuanto al uso masivo del ChatGPT-3, que lo ha usado todo el mundo que conozco, para intencionar que se un modelo más transparente, menos sesgado y que ninguno tenga problemas de privacidad o de seguridad», indica.

«Puede ser una herramienta de uso muy positivo», prosigue, «porque puede ayudar a redactar mejor un texto o una información sobre algo que puede usar para inspirarte, el problema es el mal uso. Hay que filtrar a los usuarios, buscar también las respuestas , y también legislar de alguna manera el tema de la recogida y conservación de datos. Si hay, además, versiones de pago y esos datos no se protegen, es un problema claro«, aconsejó.

Recientemente, OpenAI, creador de ChatGPT, confirmó que esta herramienta había sufrido su primer gran problema de seguridad al quedar expuestos datos privados de algunos usuarios. De hecho, la pasada semana Italia bloqueó el acceso a ChatGPT y abrió una investigación contra el popular chatbot por una presunta violación de las normas de recopilación de datos.

Alonso afirmó que «tanto en Estados Unidos como Europa tienen en marcha una propuesta de regulación ética de la IA. En Europa, por lo menos, pretender que esto pueda empezar en 2024, de ahí que tengamos AESIA en A Coruña, porque es la agencia que se encargará de desarrollar las guías y pruebas que puedan hacerse a qualquier aplicación de IA que esté disponible, a la venta, etc, en Europa; normalmente sus aplicaciones que se llaman de «alto riesgo», no solo chatbots«, subraya.

«Spain se ha propuesto como campo de pruebas para la UE para probar esta regulación, de ahí que se haya creado AESIA, que será la primera agencia de toda Europa de supervisión ética de IA y todo este tema se debería llevar a cabo durante 2023 para que esta legislación se publicará en 2024, es la intención al menos en Europa y, por tanto, hay una cierta moratoria para ver que ocurra con otras aplicaciones que, en principio, podrían no esperar de alto riesgo ya las que también se les podrían solicitar una serie de requisitos», destaca Alonso.

“En USA hay problemas con la versión 4 de ChatGPT, hay riesgo de privacidad y seguridad pública; hay una propuesta de legislación en octubre de 2022 y nos imaginamos que vamos a suspender estos experimentos hasta que se pueda ver qué tipo de riesgos potenciales pueden y ver cómo planificar y gestionar el uso de esos sistemas y recursos».

«Europa y EEUU tienen en marcha propuestas de regulación ética de la IA»

«Después hay otro tipo de cuestiones, como la guerra entre las empresas. Hace unos meses Google era el que llevaba la iniciativa y ahora mismo Microsoft se ha adelantado con su versión. , es que cumplir unos requisitos de privacidad y seguridad para todas», afirma.

En este punto, Barro también aconseja sobrio el hecho de que”el uso de las tecnologías genera, espontáneamente, aumentos en las brechas socioeconómicas” y apunta a lo que se llama comúnmente «desempleo tecnológico derivado de la automatización». «Creo que habría que preocupare ya de cómo educar a nuestros jóvenes para la sociedad de la inteligencia», subraya. «Buena parte de la intellect que nos va a rodear es ya una inteligencia artificial, viene implantada en máquinas, estamos viendo que están desarrollando un conjunto de tecnologías y sus aplicaciones que, efectivamente, van a tener un enorme impacto en nuestras vidas, en Nuestra calidad de vida, en nuestra educación, en nuestro empleo, en la riqueza…, y queremos que se nosotres educa, que se nosotres informa, queremos tomar decisión en las cosas que son más sensibles para nosotros, y esta es la parte que yo firmaría de una carta así, pero no diría que Durante seis meses tenemos que parar, porque eso me parece un brindis al sol.

«De los países más desarrollados en IA, el que tiene un control directo sobre la actividad de sus empresas y sus centres de investigación y universidades es China, y es la que menos lo va a hacer, tiene una llave todopoderosa; pero EEUU no podría parar la actividad de sus empresas, ni el desarrollo de nuevos modelos de lenguaje, ni según qué aplicaciones, y Europa tampoco», prosigue.

«Todos los países que sean democráticos y respect los derechos humanos y se compromete con sus ciudadanos tienen que estar pensando ya muy seriamente cómo regular los usos de la IA y cómo invertir dinero público para que no quede en manos de las grandes corporaciones, que es lo que está sucediendo ahora”, sostiene el catedrático.

«Se está haciendo mucha insistencia en la ética de la IA y me parece imprescindible porque las tecnologías de IA nos enfrentan a cosas nuevas, a dilemas o circunstancias que antes no se produjeron en nuestra vida ordinaria o en nuestro entorno profesional, y sirve para ir tomando conciencia, para ir orientando el desarrollo legislativo y normativo, pero nunca puede sustituirlo». De verdad, el controlar que en Barro la preocupación es perder es el del gobierno frente a las grandes corporaciones: «De lo que debe ser y no, de dónde se debe investigar y no, de hasta dónde podemos llegar y dónde tenemos que pararnos».

«La inteligencia artificial es un limbo legal»

«Sin regulación me parece mal porque es un peligro», señala el letrado Daniel García, quien presentó un trabajo sobre ella

«A día de hoy no hay normativa. La inteligencia artificial (AI) es un limbo jurídico. Es un jardín sin flores en el que cualquiera puede hacer lo que le apetezca», lamentó el letrado pontevedrés Daniel García, quien acaba de presentar su trabajo fin de master sobrio esta tecnología, los ‘smart contracts’ y l’importance de los mismos para el trabajo de abogados y operadores jurídicos.

En «Artificial Intelligences and Smart Contracts, Condenados a Understanding?» el anteproyecto para su reglamento fijándose en la clasificación de sistemas de IA de alto riesgo o incluso prohibidos.

“Critico –añade García– que no hay suficiente regulación. Hay un intento por la UE pero no se dan puesto de acuerdo«. Desde su punto de vista «sin regulación me parece mal porque es un peligro. La gente hará lo que le apetezca sin tener en cuenta las particularidades de IA».

Pararla tampoco parece ya una alternativa, según su punto de vista. «Una IA sin regulación es peligrosa. Si se frena, la tecnología no se para sino que busca otros subterfugios” que entonces sí escaparían al control y regulación», matiza.

Con el fin de senseer la importancia del asunto, planta una directa y sencilla: «Qué pasará el día de mañana cuando a un influence le suplanten la identidad, la cara y la voz cuestión hasta el punto de no hacerlo reconocible diciendo en una entrevista algo controvertido.¿Qué mecanismos va a haber para saber que es un ‘falso’?».

Imaginemos que lo que comenta el’falso’ es susceptible de ser sancionado legalmente. ¿Cómo conseguirá demostrar que él no ha dicho eso y ocurrirá algo y qué a la persona o entidad que adquirió la tecnología para suplantarlo? ¿O solo recaerá la responsabilidad en la plataforma?

No son las únicas preguntas, Daniel García también nos pide que nos paremos a reflexionar sobre “¿Qué va a ocurrir con las obras realizadas por inteligencia artificial? ¿Va a haber derechos de autor o no?”.

en estos Europa en tiempos de guerra, otro punto importante es si debe estar prohibido como arma. «La ONU_considera que la IA debe estar prohibida para el uso militar. Rompe la barrera psicológica de apretar el gatillo o no. Si lo hace una máquina, ¿qué ocurre?», planta este joven que trabaja para el despacho Lois Carrera Abogados.

Para ello, pide recordar el incidente en la guerra entre Ucrania y Rusia cuando cayeron proyectiles en territorio polaco: «¿Qué había ocurrido si la defensa de Polonia estaba activada para responder automáticamente si cae un misil?».

García no es apocalíptico. Recuerda que «se asemeja a cuando nació Internet. La gente le tenía miedo porque no había regulación. La inteligencia artificial de aquí a diez años estará más desarrollada, en las actividades del día a día».