hablar con voz con ChatGPT

Desde comienzos de la nueva década, la inteligencia artificial ha avanzado a pasos agigantados, ofreciendo nuevas herramientas y soluciones que prometen transformar diversos aspectos de nuestras vidas. Como viene siendo habitual, estos avances también vienen acompañados de preocupaciones relacionadas con la seguridad y el uso ético de la tecnología. ¿Hasta qué punto es seguro utilizar herramientas como ChatGPT?

Para entender mejor esta cuestión, los propios empleados de OpenAI, la empresa detrás de esta innovadora tecnología, han hecho diferentes declaraciones al diario Washington Post, donde se dan a conocer los planes de la compañía en relación con los aspectos mencionados anteriormente.

La estrategia de OpenAI con ChatGPT: a trompicones y con lanzamientos prematuros

El potencial de ChatGPT para ‘hacer el mal’ ha sido objeto de debate prácticamente desde su salida al mercado. El verano pasado, OpenAI prometió a la Casa Blanca que probaría nuevas versiones de su tecnología para asegurarse de que no causaran daños. Esta promesa incluía prevenir que la IA enseñara a los usuarios a construir armas biológicas o ayudar a los hackers a desarrollar nuevos tipos de ciberataques.

hablar con chatgpt

A pesar de estas promesas, la presión para cumplir con las fechas de lanzamiento ha generado ciertas preocupaciones en el núcleo de la empresa. Según “tres personas familiarizadas con el asunto”, algunos miembros del equipo de seguridad de OpenAI se sintieron obligados a acelerar un nuevo protocolo de pruebas diseñado para evitar, según cita el mismo artículo, “daños catastróficos”, para cumplir con una fecha de lanzamiento fijada en mayo.

Antes de que comenzaran las pruebas del modelo GPT-4 Omni, OpenAI ya había organizado una fiesta para celebrar el lanzamiento del producto en una de sus oficinas en San Francisco. Según cita la fuente, la celebración se llevó a cabo antes de saber si era seguro lanzar el modelo, lo que degeneró en una sensación de fracaso por parte del equipo durante el proceso de pruebas.

Este incidente fue el que marcó un punto de inflexión sobre un cambio cultural en OpenAI, donde los líderes de la compañía, incluyendo el propio CEO, Sam Altman, han sido acusados de priorizar los intereses comerciales sobre la seguridad pública, lo que vuelve a poner sobre la mesa la efectividad de la autorregulación por parte de las empresas tecnológicas. “El fin justifica los medios”, que diría Maquiavelo.

En este sentido, la intervención del gobierno federal, junto con las limitaciones impuestas por la Unión Europea, podría poner coto a esta filosofía del avance por el avance, que ha acabado afectado a innumerables sectores desde el lanzamiento de ChatGPT, incluido el de un servidor.

La opinión de expertos y antiguos empleados de OpenAI

Las últimas decisiones de OpenAI han vuelto a remover la opinión pública generada en torno a ChatGPT, tanto de especialistas como de antiguos trabajadores de la compañía. Andrew Strait, ex investigador de ética y política de Google DeepMind y ahora director asociado del Ada Lovelace Institute de Londres, ha señalado que permitir a las empresas establecer sus propios estándares de seguridad es inherentemente arriesgado. Strait sugiere que, sin garantías de que las políticas internas estén siendo seguidas o apoyadas por métodos creíbles, los riesgos de seguridad podrían pasar desapercibidos.

¿Es peligroso utilizar ChatGPT? Esto es lo que dicen los empleados de OpenAI 1

Por otro lado, Jan Leike, ex ejecutivo de OpenAI, renunció poco después del lanzamiento del GPT-4 Omni. Leike expresó en redes sociales que la cultura y los procesos de seguridad en OpenAI habían pasado a un segundo plano frente a los productos brillantes. William Saunders, otro ex empleado, mencionó en un pódcast que había notado un patrón de trabajo de seguridad apresurado y no muy sólido con respecto a este mismo valor. La cosa no acaba ahí.

Un representante del equipo de preparación de OpenAI, que habló bajo condición de anonimato, admitió que las pruebas del modelo GPT-4 Omni se condensaron en una sola semana. La misma fuente aseguró que este periodo fue suficiente para completar las pruebas, aunque reconoció que estaba muy ajustado, lo que ha llevado a la empresa a replantearse su enfoque de cara al futuro.

Por último, la portavoz de OpenAI, Lindsey Held, afirmó que la empresa “no recortó ningún aspecto de su proceso de seguridad”, si bien admitió que el lanzamiento fue estresante para los equipos involucrados. Afirma que la empresa llevó a cabo todo tipo de pruebas internas y externas y mantuvo algunas características multimedia para continuar el mencionado proceso de seguridad.

El cambio cultural de OpenAI, puesto en duda y con medidas “para prevenir riesgos”

El objetivo inicial de OpenAI era funcionar como una organización sin fines de lucro altruista, pero la presión por mantenerse competitivos en el mercado ha llevado a aplicar una serie de cambios en su cultura corporativa. Este cambio ha generado, a su vez, todo tipo de inquietudes sobre la capacidad de la empresa para equilibrar los intereses comerciales con la necesidad de garantizar la seguridad y la ética en el desarrollo de sus tecnologías.

Imagen de ChatGPT

En respuesta a las críticas, OpenAI ha lanzado dos nuevos equipos de seguridad en el último año, que se unieron a una división ya existente enfocada en daños concretos como el sesgo racial y la desinformación. El problema es que la rapidez con la que se han implementado estos cambios ha generado todo un mar dudas sobre su supuesta efectividad.

El equipo de Superalignación, anunciado en julio, se dedicó a prevenir riesgos existenciales de los sistemas de inteligencia artificial avanzados. A pesar de ello, varios líderes del equipo, incluyendo a Jan Leike e Ilya Sutskever, renunciaron poco después del lanzamiento del modelo GPT-4 Omni, cuestionando, una vez más, la estrategia comercial seguida por la dirección de la empresa.

Recibe nuestras noticias

De lunes a viernes mandamos un newsletter con los titulares del día a +4.000 suscriptores

I will never give away, trade or sell your email address. You can unsubscribe at any time.