ChatGPT-Plus (1)

ChatGPT, como otras Inteligencias Artificiales, ha llegado para quedarse. Desde su llegada a las masas, hasta Bing ha apostado por esta Inteligencia Artificial para mostrar resultados con información enriquecida. Como el resto de iniciativas que existen actualmente en Internet, el juguete de OpenAI, la empresa responsable de su desarrollo, no está exento de fallos. Y esto es especialmente importante si vamos a recurrir a ChatGPT u otras plataformas como herramienta de trabajo, sobre todo de aquellos cuya naturaleza requiera un conocimiento más técnico o científico. En esta ocasión, hemos un repaso por las limitaciones de ChatGPT y el resto de inteligencias para advertir sobre su uso a la hora de hacer trabajos.

Información inexacta, no lo fíes todo a la Inteligencia Artificial

Ya lo advierte la propia Inteligencia Artificial cuando le preguntamos acerca de las limitaciones de su conocimiento. Como modelo en fase de pruebas que es, ChatGPT puede cometer errores ocasionales debido a la naturaleza del lenguaje natural y la complejidad de algunas preguntas. Asimismo, debemos de tener en cuenta que su conocimiento se limita a la información que se le ha presentado durante su entrenamiento, por lo que no tiene acceso a información actualizada o nueva que se haya generado después de ese tiempo. En otras palabras, si bien puede proporcionar respuestas precisas y útiles a muchas preguntas, su conocimiento no incluye información que no se haya incluido el entrenamiento

Podemos concluir, por tanto, que la información que ChatGPT proporciona puede no ser exacta y siempre es una buena idea verificar su procedencia en múltiples fuentes confiables antes de tomar cualquier decisión relevante.

La propiedad intelectual, ese gran debate sobre el uso de las Inteligencias Artificiales

Un debate que surge en torno a las Inteligencias Artificiales, sobre todo de aquellas que recurren a la generación de imágenes por patrones de entrenamiento. Ejemplos como el de Dall-e han servido para poner una vez más sobre la mesa las implicaciones morales y éticas de este tipo de modelos. Como sucede con la mayoría de herramientas de generación por Inteligencia Artificial, Dall-e fue entrenado sobre una gran cantidad de imágenes y texto para aprender a crear imágenes completamente nuevas y originales.

Para generar una imagen, el modelo Dall-e recibe una descripción textual como entrada y luego utiliza una combinación de redes neuronales y algoritmos para generar una imagen a partir de cero. Dall-e emplea técnicas de generación de imágenes, llamadas Redes Generativas Adversarias (GANs), que se basan en el entrenamiento de dos redes neuronales en competencia para producir un conjunto de píxeles. El problema es que este tipo de inteligencias han aprendido a reconocer patrones y características basándose en las obras de otros autores.

Lo mismo sucede con la información que herramientas como ChatGPT recogen en sus modelos de programación. Esta ha sido la razón por la que algunos bancos de imágenes comerciales se han visto obligados a denegar fotografías cuyos diseños han sido realizados con Dall-e u otras herramientas de creación.

Si buscas información actualizada, olvídate de ChatGPT

Es algo que se sabe desde su lanzamiento. Como acabamos de mencionar, el conocimiento de ChatGPT se limita a la información que se ha presentado durante su entrenamiento, que terminó hace más de un año; concretamente, en septiembre de 2021. Pero, ¿cuáles son sus implicaciones? Que el conocimiento de la Inteligencia Artificial está limitado a la información que se encontró en el conjunto de datos que se utilizó durante su proceso de programación, en tanto que no puede aprender cosas nuevas por su cuenta. En este sentido, es probable que si le preguntamos por algún suceso posterior a 2021, los datos que se nos presenten sean inexactos o directamente inventados, haciendo alarde de su creatividad.

Sin cita a fuentes, con todo lo que ello conlleva

A diferencia de otras Inteligencias Artificiales, como es el caso de Perplexity.ai, ChatGPT no cita fuentes ni hace referencia a los autores de la información que extrae de su modelo de lenguaje. La propia plataforma nos advierte de que, a pesar de que su entrenamiento se basó en una amplia gama de fuentes de información, no tiene la capacidad de buscar o proporcionar fuentes específicas para cada respuesta que da. En este sentido, la información que proporciona se basa en una serie de patrones y estructuras que se introdujeron como fuentes para alimentar el conocimiento de ChatGPT.

Porque no está conectada a Internet

Así es. El principal motivo de que ChatGPT no cite fuentes que es, en el momento de escribir estas líneas, no está conectada a Internet. Esto no limita únicamente el abanico de respuestas que la Inteligencia Artificial nos puede dar sobre determinados temas, sino su interacción con el resto de páginas web para automatizar o generar determinadas acciones. Por ejemplo, a la hora de elaborar una estrategia SEO para posicionar contenido en Internet, comparar características de dos móviles que han sido lanzados recientemente o conocer los detalles de un suceso que ha tenido lugar durante las últimas horas.

A mí no me preguntes, no soy 100tifiko

Cuando recurrimos a una temática que requiera de conocimientos científicos, las respuestas que ChatGPT y otros modelos de lenguaje entrenado nos dan son mucho más vagas e inexactas que si lo hacemos de una materia más generalista. Como pudimos comprobar en el artículo sobre las 10 preguntas más retorcidas que podemos hacerle a ChatGPT, la información que la Inteligencia Artificial nos da en preguntas relacionadas con algunos modelos matemáticos y físicos es más bien limitada. Y si vamos a recurrir a estas herramientas para resolver problemas o enunciados, más nos vale revisar el resultado en otras fuentes para ver si existen fallos o errores de cálculo.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.