Un estudiante universitario usó GPT-3 para escribir publicaciones de blog falsas y terminó en la parte superior de Hacker News

El estudiante universitario Liam Porr utilizó la herramienta de inteligencia artificial de generación de lenguaje GPT-3 para producir una publicación de blog falsa que recientemente se ubicó en el puesto número 1 en Hacker News, informó MIT Technology Review . Porr estaba tratando de demostrar que el contenido producido por GPT-3 podía engañar a la gente haciéndoles creer que fue escrito por un humano. Y, le dijo a MIT Technology Review , "fue muy fácil, en realidad, que fue la parte aterradora".

Entonces, para preparar el escenario en caso de que no esté familiarizado con GPT-3: es la última versión de una serie de herramientas de autocompletado de IA diseñadas por OpenAI, con sede en San Francisco, y ha estado en desarrollo durante varios años. En su forma más básica, GPT-3 (que significa “transformador generativo pre-entrenado”) completa automáticamente su texto según las indicaciones de un escritor humano.

Mi colega James Vincent explica cómo funciona :

Como todos los sistemas de aprendizaje profundo, GPT-3 busca patrones en los datos. Para simplificar las cosas, el programa ha sido entrenado en un enorme corpus de texto que se extrae para regularidades estadísticas. Estas regularidades son desconocidas para los humanos, pero se almacenan como miles de millones de conexiones ponderadas entre los diferentes nodos de la red neuronal de GPT-3. Es importante destacar que no hay participación humana involucrada en este proceso: el programa busca y encuentra patrones sin ninguna guía, que luego utiliza para completar los mensajes de texto. Si ingresa la palabra "fuego" en GPT-3, el programa sabe, basándose en los pesos en su red, que es mucho más probable que sigan las palabras "camión" y "alarma" que "lúcido" o "élfico". Hasta ahora, muy sencillo.

Aquí hay una muestra de la publicación del blog de Porr (con un autor seudónimo), titulada “¿Se siente improductivo? Quizás deberías dejar de pensar demasiado ".

Definición n. ° 2: Pensar demasiado (OT) es el acto de tratar de pensar en ideas que ya han sido pensadas por otra persona. El TO generalmente da como resultado ideas que son imprácticas, imposibles o incluso estúpidas.

Sí, también me gustaría pensar que podría darme cuenta de que esto no fue escrito por un humano, pero hay muchos escritos no muy buenos en estos sitios web, así que supongo que es posible que esto pueda pasar como "contenido marketing ”o algún otro contenido.

OpenAI decidió dar acceso a la API de GPT-3 a los investigadores en una versión beta privada, en lugar de lanzarla a la naturaleza al principio. Porr, quien es un estudiante de ciencias de la computación en la Universidad de California, Berkeley, pudo encontrar un estudiante de doctorado que ya tenía acceso a la API, quien accedió a trabajar con él en el experimento. Porr escribió un guión que le dio a GPT-3 un título de publicación de blog y una introducción. Generó algunas versiones de la publicación y Porr eligió una para el blog, copiada y pegada de la versión de GPT-3 con muy poca edición.

La publicación se volvió viral en unas pocas horas, dijo Porr, y el blog tuvo más de 26.000 visitantes. Escribió que solo una persona se acercó para preguntar si la publicación fue generada por IA, aunque varios comentaristas adivinaron que GPT-3 era el autor. Pero, dice Porr, la comunidad rechazó esos comentarios.

William Porr

Sugiere que la “escritura” de GPT-3 podría reemplazar a los productores de contenido, que son los chistes que la gente, por supuesto, no podría suceder, espero. “El objetivo de publicar esto en versión beta privada es que la comunidad pueda mostrar nuevos casos de uso de OpenAI que deberían fomentar o buscar”, escribe Porr. Y es notable que aún no tiene acceso a la API de GPT-3 a pesar de que la solicitó, y admitió en MIT Technology Review: "Es posible que estén molestos porque hice esto".