Quantcast

Tecnología

El verdadero motivo por el que el creador de ChatGPT pide poner límites a su bot

Sam Altman visitó varios países, entre ellos España, para hacer lobby. Reclama en Europa una regulación para la Inteligencia Artificial por los peligros que implica, pero detrás de esa petición hay otros intereses

ChatGPT: más artificial que inteligente
Representación gráfica de ChatGPT. CHUAN CHUAN / Shutterstock

No se habla de otra cosa. ChatGPT está en boca de todos, para bien o para mal. Hace unos días el CEO de OpenAI y creador del chatbot, Sam Altman, aterrizaba en España en olor de multitudes. Hasta hizo un hueco en su agenda para verse con Pedro Sánchez.

Su visita se enmarcaba dentro de una gira internacional en la que la intención era mantener encuentros con desarrolladores y reguladores para analizar y generar debates sobre el futuro de la Inteligencia Artificial. En una de sus alocuciones públicas no dudó en alzar la voz y reclamar una regulación en Europa para un sector de actividad que, según él, se puede comparar perfectamente por su peligrosidad con el de las armas nucleares.

Algunos pensaron que era una noble petición, la suya, pero no lo es realmente si se analiza la jugada con detenimiento: la regulación solo le beneficia a él.

El mayor peligro para ChatGPT son las startups. De cualquier esquina sale un tapado y, al ritmo que evoluciona la tecnología, adelanta por la derecha a una multinacional en menos que canta un gallo. Por no hablar de que la Inteligencia Artificial está aún en pañales. Una regulación fuerte hunde a esas pequeñas empresas, en muchos casos formadas por profesores y alumnos de universidad, sin recursos o conexiones afianzadas con los fondos.

El hecho de tener que cumplir con la regulación supone la dedicación de una serie de esfuerzos e inversión de las que carecen generalmente las startups. Esto las coloca en un punto competitivo diferente.

Altman es el enésimo directivo de una tecnológica norteamericana que pretende catapultar su empresa en Europa al calor de la flexible regulación de la que hacen gala en Estados Unidos y la intransigencia que se impone en el viejo continente a la hora de legislar. En el Silicon Valley se lanzan las compañías sin demasiados miramientos, esto hace que lleguen primero al mercado, con lo que eso implica a la hora de competir. Allí prefieren pedir perdón, a pedir permiso. En el viejo continente pasa exactamente lo contrario.

ChatGPT quiere una regulación, pero a medida

Sin embargo, no siempre es así. O es así hasta cierto punto. Cuando desde Europa se proponen legislaciones que contravienen los intereses de los gigantes de la tecnología, o van más allá, los mismos directivos que reclaman una normativa ponen el grito en el cielo -como es normal, por otra parte, ya que les va la empresa en ello-. Le sucedió al propio Altman poco después de reclamar la legislación a la que antes hacíamos referencia. Donde dije digo, digo Diego. Amenazó con sacar a ChatGPT de Europa si la ley sobre Inteligencia Artificial que se cocina en Europa no se ajusta a lo que él quiere.

Lo hizo poco después de que se hiciera público el borrador oficial de esta ley, que en líneas generales establece condiciones duras para lo que desde Bruselas consideran sectores de alto riesgo, como salud, armamento o biometría, para luego bajar la normativa a una lluvia más fina.

Altman fue halagado por pedir una regulación para ChatGPT, pero el fondo es otro. Hay quien lo sabe. La OCDE, consciente de que la regulación en las empresas de Inteligencia Artificial será el caballo de batalla, trabaja para proveer de herramientas a las startups y pequeñas empresas para que puedan cumplir con la regulación en cualquier lugar del mundo, asesorándolas a coste cero. Altman quiere una regulación, sí. Pero como toda empresa, a su medida. Depende de Bruselas que eso suceda o no. En su mano está dificultar la competencia en Europa o facilitar que las startups del viejo continente puedan pelear de tú a tú con las empresas de Inteligencia Artificial del Silicon Valley.

Ya no se pueden votar ni publicar comentarios en este artículo.

  • P
    Perhaps

    Un principio del conocimiento, previo al estudio y la ciencia dice que ningún ser es capaz de crear algo superior a sí mismo. La humanidad no puede crear una inteligencia artificial superior a la humana.

    Por otro lado, llamamos inteligencia artificial a un protocolo fijo de actuación frente a estímulos determinados, como los insectos. La forma más desarrollada de ese protocolo funciona recopilando datos del entorno digital para exponer resultados de acuerdo a unas preferencias introducidas al inicio, u que serán devueltas al entorno en forma de datos. Los mismos datos en distinta forma. No crea nada nuevo. Al final el volumen de datos existentes aumentará por inyección de datos elaborados repetidos no por datos nuevos, vale decir que la basura crecerá. Hay un principio informático que dice "dale desperdicios, dará desperdicios", con un poco de suerte esa IA superdesarrollada que nos quieren vender como monstruo peligroso, se autodestruirá por basura acumulada.

  • F
    Franz Chubert

    OpenAI palma un montón de pasta, y los inversores aprietan.

    https://www.theinformation.com/articles/openais-losses-doubled-to-540-million-as-it-developed-chatgpt