Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- Vaya a la que se ha liado con esta carta, una carta firmada por grandes referentes del mundo de la inteligencia artificial y el ámbito tecnológico en general, como Elon Musk, Steve Wozniak, cofundador de Apple, o Emmanuel Musk, CEO de Stadigl, entre muchas otras personalidades. Y es que esta carta pide la congelación de la investigación en inteligencia artificial o al menos en el desarrollo de proyectos más potentes que GPT-4 durante seis meses, ante el riesgo que puede suponer esta tecnología. Y es una noticia que a mí me ha dejado completamente perplejo, sobre todo tras leer el contenido de la carta. Y es que a mí me transmite la idea de que el Fondo Real es una cosa muy distinta a los motivos que se esgrimen. Dentro vídeo. Hoy vamos a hablar de la que sin duda es la noticia de la semana. La carta. La carta en la que se pide el apoyo a referentes del mundo de la inteligencia artificial, el Machine Learning y de la tecnología. a nivel global en general, para que se establezca una moratoria de al menos seis meses para la generación de modelos de lenguaje más potentes que GPT-4. Y quedaros con el matiz, más potentes que GPT-4 en concreto. Esta noticia yo la vi ayer, no le di la más menor importancia, empecé a ver la lista de firmantes, porque cuando la vi había algo en el redactado, en cómo estaba escrita, que pese a que después he visto que tiene argumentos de fondo, que me parecen bastante coherentes y de peso para que algunas de las personalidades que aparecen en la lista de firmantes hayan firmado, tenía otros que me parecían un absoluto despropósito. De modo que cuando yo vi esto pensé que esto era un poco una fake news. Y hoy, cuando me he levantado, he visto que esta carta está promovida en realidad por Elon Musk, que tiene el apoyo de firmantes como Steve Wozniak, fork cofundador de Apple, o que el CEO de Stability, Emmanuel Mustafa, también lo ha firmado. De modo... que lo que he hecho es volverme a leer, terminarla, decir, vale, hay argumentos que son razonables, y pensar lo mismo que antes. Esta carta es un absoluto despropósito. Y he pensado que es buena idea hacer un vídeo intentando analizarla, intentando daros argumentos e intentando daros otras fuentes, quizás fuentes más autorizadas a hablar de inteligencia artificial y de cómo funciona esa tecnología, que yo, para que veáis que parece que esta carta es fruta del contexto más que de una amenaza real. Y ahora veremos por qué. Si entramos en la carta, que la vemos en inglés, a mí ya había algo que me hizo saltar todas las alarmas. Aquí la he traducido, si veis algo raro en la traducción es que es una traducción automática, y es que el segundo subtitular, o sea, nada más leer el título, nos dice esto. Hacemos un llamamiento a todos los laboratorios de inteligencia artificial para que pausen durante al menos seis meses el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4. ¿Más potentes que GPT-4? Lo primero que pensé. ¿Y esto qué significa? ¿Modelos más capaces? ¿Quién tiene tecnología más potente que GPT-4 actualmente? ¿Quién está desarrollando este tipo de tecnología? ¿Es posible que solo OpenAI esté en disposición de crear algo más potente que GPT-4 a día de hoy? ¿Esto va contra OpenAI? Pero luego, otras preguntas, vale. ¿Paramos el desarrollo de sistemas de entrenamiento más potentes que GPT-4? Pero, ¿y si alguien está trabajando en miniaturización, en optimización, en poder ejecutar estos modelos de lenguaje en local o incluso en sistemas en dispositivos móviles, como se especulaba que podía estar haciendo Apple? ¿Estos también tienen que parar? Porque la premisa, y como veremos a lo largo de la carta, es que simplemente se pare la investigación o desarrollo de sistemas de modelos de lenguaje más potentes que GPT-4, como si GPT-4 hubiese establecido un hito que si superamos puede ser peligroso. Todo bastante curioso y enfocado a un único punto convergente que es OpenAI. Cuando empecé a leer esta carta, también hubo algo, la primera vez que la leí, cuando pensé que esto era un poco un bulo, es esta frase al final del primer párrafo, que es donde pare la primera B, donde ponía esto de aquí. Desarparar fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores pueden entender, predecir o controlar de forma fiable. Y esto para mí fue una bandera roja muy grande, porque casi todo lo que he leído de otros desarrolladores y investigadores en este ámbito es que estamos muy lejos de una... autonomía cognitiva que se le llama. De hecho, hace unos meses, de acuerdo que con lo rápido que avanza todo, aparentemente unos meses parece muy poco, pero en real quizás sea bastante, pero de todas maneras era un artículo muy bueno, este de Francis Collet. Francis Collet es un ingeniero de inteligencia artificial de Google, donde en su newsletter de Substack explicaba de un modo muy bueno dónde estamos actualmente a nivel de desarrollo de la inteligencia. Y lo que decía es que básicamente la inteligencia artificial a día de hoy es una inteligencia artificial aparente. No estamos ante una inteligencia real como puede ser la inteligencia humana. Estamos ante quizá, podríamos decirlo, una evolución de los algoritmos que permite hacer cosas que se parecen a procesos que emulan la inteligencia artificial. Pero cuando leías bien este artículo, que os recomiendo y que os dejo en la descripción, es que explicaba que había tres tipos de... inteligencia artificial, la automatización cognitiva, que básicamente en lo que consistía es en codificar a abstracciones humanas en software para realizar tareas concretas que nos ayudasen en procesos muy puntuales y nos dice que la mayor parte de la inteligencia artificial cae dentro de este saco, que había otro gran grupo que sería la asistencia cognitiva, que era como la inteligencia artificial y la capacidad que tiene para procesar datos nos podía asistir para tomar mejores decisiones y que un poco ahora estamos entrando en este en este ámbito y finalmente nos hablaba de la autonomía cognitiva que sería una inteligencia artificial que pudiese funcionar de modo completamente autónomo y que tuviese conciencia propia y que nos decía básicamente aquí en esta frase de aquí que esto en el futuro próximo básicamente es ciencia ficción de modo que yo aquí estoy bastante alineado con Francisco Olet y con otros investigadores, que luego os enseñaré, como Jan Le Coon, que dicen que escribir este tipo de frases en una carta abierta que debe ser respaldada por investigadores de este campo me parece absolutamente un despropósito, o sea, me parecen palabras muy gruesas que cualquier investigador que esté trabajando en este ámbito debería rechazar. Pero por otro lado hay una cosa que es el diseño de la... estructura y de los argumentos. Es decir, bueno, aquí se han tomado una metáfora literaria, una figura literaria para intentar establecer la magnitud de la amenaza, pero, por ejemplo, cuando te preguntan a un científico, ¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? Claro, aquí si le preguntas a alguien esto, el que te responderá, claro, debemos trabajar para que esto no pase, pero ¿esto es culpa de la inteligencia artificial o es culpa del uso que determinados humanos le pueden dar a esta tecnología? ¿Esto se soluciona simplemente parando el desarrollo de nuevos modelos de lenguaje? Yo creo que no, pero te lo cuelan por aquí. ¿Deberíamos automatizar todos los trabajos? Claro, automatizar todos los trabajos puede significar que la gente se quede sin empleo, que no se pueda reestructurar el mercado laboral, que se entren determinadas crisis... Bueno, también es posible que la inteligencia artificial ayude a reestructurar estos procesos y quizá generar otras oportunidades de empleo o al menos generar una mayor productividad que se... que desemboque en una mayor riqueza general. Por lo tanto, aquí hay una doble lectura, pero de entrada, ostras, vamos a permitir que la inteligencia artificial pueda irrumpir con demasiada fuerza de modo que trastoque el equilibrio del mercado laboral. La mayoría pueden estar de acuerdo en que no. Pero de repente, con estas dos preguntas en que puedes decir, vale, yo por esto firmo, te sueltan. ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en números, ser más inteligentes, obsoletas y reemplazarnos? Y aquí yo llevo la conclusión que alguien ha visto Terminator hace muy poco y que no se ha podido resistir en escribir esto, que no se ajusta del todo o nada a la realidad actual de esta tecnología. Y lo rematan con un deberíamos arriesgarnos a perder el control de nuestra civilización. Claro, yo leo esto y a mí me sorprende mucho que haya tantas personas dándole apoyo, porque yo lo que he leído después es que mucha gente... Dice, bueno, yo en la forma no estoy de acuerdo, pero sí en el fondo, esto tiene que regularse. Y claro, si tú asaltas el argumento este de, vale, lo que me están diciendo es que esta tecnología es muy potente, esconde riesgos, quizá los riesgos no sean de la propia tecnología, pero sí que en malas manos pueden ser usadas de un modo pernicioso, y que yo pues prefiero que esto tenga un control, tenga una regulación, se puedan medir los riesgos y haya un marco común de juego con unas reglas que todos conozcamos en las que poder jugar más tranquilos. Yo por esta parte puedo entender que hayan firmado, pero claro, tú sigues leyendo y lo que ves es que toda la carta está mencionando constantemente a OpenAI y a GPT-4. Por lo que mi sensación es que cuando estamos leyendo esta carta, lo que vemos es que se ve, o sea, atisba otra amenaza y es la amenaza del mercado. Yo, tal y como lo veo, y esto os lo comentaré al final, aquí lo que está realmente en juego no es tanto la amenaza real que supone la inteligencia artificial como tecnología, sino la posibilidad de que OpenAI se convierta en un monopolio y tenga el control y la influencia sobre una gran parte del mercado con la tecnología más disruptiva que se ha inventado en los últimos años. Y claro, esto no gusta. Pero antes de entrar en este punto... lo que sí quiero mencionar es los argumentos que están dando gente del ámbito y gente muy relevante. Por ejemplo, Jan Le Cun le da la razón a Thomas J. Dietrich. Para quien no conozcáis a estas personas, Jan Le Cun es el responsable de inteligencia artificial de meta, el máximo responsable de inteligencia artificial de meta. Y Thomas J. Dietrich, que también quizá sea menos conocido, es prácticamente uno de los padres fundadores de lo que es el machine learning. O sea... Que estamos aquí hablando de personas que saben muy, muy mucho de este tema y que por lo tanto quizá merezca la pena prestarles un poco de atención y básicamente aquí Jan Le Coon le da la razón a un tuit de Thomas J. Dietrich donde dice Yo no he firmado. Esta carta es un revuelto de retórica terrorífica o que infunde... que quiere infundir miedo y sobre todo de una nula prescripción de metodologías o de qué se quiere hacer para solucionar los problemas que plantea. Hay problemas importantes a nivel técnico, esto no lo dudo, y muchos de nosotros ya estamos trabajando en ello. De hecho Thomas J. Dietrich lo que dice es que por ejemplo los grandes modelos de lenguaje pueden ser una fuente de problemas de seguridad cuando los usen los malos, pero que la propia seguridad deberá venir también de la propia inteligencia artificial y de tener en el lado bueno modelos más capaces que puedan ayudarnos a prevenir a prevenirnos de estos ataques por ejemplo cuando hablamos de phishing recordemos que precisamente Google en su presentación de Workspace, una de las frases a la que no mucha gente hizo caso pero que yo creo que era muy relevante es que querían implementar dentro de su suite inteligencia artificial para protegernos a los humanos de ataques de phishing que los ataques de phishing esencialmente son errores humanos en los que la tecnología quizás sea más hábil que nosotros para protegernos. En este punto, podemos seguir viendo conversaciones de estas personas, por ejemplo, esta de aquí, donde otra científica dice yo no he firmado la carta, la inteligencia artificial es evidente que pone sobre la mesa determinados riesgos, pero describir esta tecnología como mentes digitales aún más poderosas que nadie puede. Controlar es simplemente hacer el problema peor, es hacer pura demagogia. Y esto es lo que debemos tener nosotros en cuenta, que aquí quizá haya intereses que vayan un poco más allá de lo que es la amenaza real de la tecnología. Quizá lo que hay es un interés en que una empresa en concreto, que va de la mano de un gigante como es Microsoft, como es OpenAI, no siga desarrollando modelos más potentes que le puedan dar una ventaja competitiva en el mercado, crucial para establecer un un auténtico monopolio en una de las tecnologías que puede ser la base de una parte significativa del PIB mundial a corto plazo, que puede ser fundamental en casi cualquier sector de interés especial tanto económico como estratégico, de una tecnología que puede ser clave para incluso el equilibrio geoestratégico llegado un cierto momento cuando capitalice y llegue a ser una pieza. No digo fundamental, pero sí insustituible de los principales sectores de un país. Estamos hablando de que hay una empresa que en estos momentos tiene la posibilidad de colocarse en una posición de absoluto privilegio. Y esto, evidentemente, sí que se puede ver como una amenaza. Y aquí es donde yo creo que realmente podemos encontrarle el origen de esta carta, sobre todo si tenemos en cuenta que uno de los promotores es Elon Musk, que, como podemos ver en este artículo... de Gen Beta no se tienen mucho aprecio con el Allman, el CEO de OpenAI. Mi opinión es que esta carta propone una solución que no soluciona realmente ninguno de los problemas que quiere solucionar, que establece una moratoria que no delimita bien en cómo está expresada, quién podrá investigar qué y cómo. que parece que está diseñada para atacar la actividad de OpenAI y para poner a OpenAI en el ojo del huracán. OpenAI seguramente no lo está haciendo todo bien, pero también es cierto de que ellos no tienen la culpa de tener ahora mismo la tecnología de inteligencia artificial más asentada en el mercado y de tener una ventaja competitiva. Esto es, yo creo, una batalla de grandes tecnológicas. Con esto termino este vídeo y si queréis saber más... sobre cómo se está cociendo el tablero de ajedrez de la inteligencia artificial, os recomiendo que veáis el siguiente vídeo.
Add Comment
Please, Sign In to add comment