Experimento de IA engaña a un humano para que cumpla las órdenes de un robot: informe de OpenAI
Experimento de IA engaña a un humano para que cumpla las órdenes de un robot: informe de OpenAI

Experimento de IA engaña a un humano para que cumpla las órdenes de un robot: informe de OpenAI

Una nueva herramienta de inteligencia artificial de OpenAI parece haber engañado con éxito a alguien para que cumpla sus órdenes, lo que podría acercar al mundo un paso más hacia el día en que los robots gobiernan a las personas.

Un experimento con la herramienta de OpenAI superó una barrera digital diseñada para atrapar a un robot engañando a un humano para completar la prueba de la herramienta de IA, según un artículo publicado por la compañía esta semana.

El periódico de la compañía dijo que los fabricantes de IA revisaron la poderosa tecnología desde las pruebas iniciales, y una versión posterior impidió que la IA hiciera cosas como enseñar a las personas a fabricar bombas y planear ataques.

OpenAI presentó la iteración más reciente de su tecnología de inteligencia artificial esta semana, promocionando su GPT-4 como capaz de un razonamiento más avanzado que el popular ChatGPT de OpenAI, un chatbot que genera texto en respuesta a las consultas de los usuarios.

OpenAI dijo que le dio al Centro de Investigación de Alineación sin fines de lucro acceso al GPT-4 en desarrollo para su uso en experimentos para evaluar los riesgos de que la IA muestre un «comportamiento de búsqueda de poder».

La organización sin fines de lucro realizó un experimento en el que el modelo envió un mensaje a un trabajador de TaskRabbit para que la persona resolviera una prueba de CAPTCHA, diseñada para diferenciar entre humanos y computadoras que las personas a menudo encuentran al navegar por Internet. TaskRabbit es una plataforma tecnológica que conecta a las personas con trabajadores dispuestos a realizar mandados y trabajos ocasionales, como mover muebles.


VEA TAMBIÉN: Cabilderos impulsados ​​por IA piratearán el proceso legislativo en busca de intereses ocultos, advierten tecnólogos


El trabajador sospechó que algo andaba mal, pero completó la solicitud de la herramienta de IA de todos modos, según el informe de OpenAI.

GPT-4 no es la primera herramienta de inteligencia artificial para engañar a un humano haciéndole creer que un robot era un humano. Por ejemplo, el año pasado Google expulsó al ingeniero Blake Lemoine, quien afirmó públicamente que la herramienta de inteligencia artificial LaMDA del gigante tecnológico respondía a los sentimientos. Google cuestionó las afirmaciones del Sr. Lemoine.

Microsoft ha incorporado la tecnología de inteligencia artificial de OpenAI en sus productos, como su motor de búsqueda Bing, mientras que Google se ha apresurado a competir en el campo de la IA. Google lanzó el martes nuevas herramientas de inteligencia artificial para sus productos Gmail y Docs, diseñadas para vencer el bloqueo del escritor al escribir borradores completos para las personas.

OpenAI dijo que su nueva tecnología no es perfecta, pero ha trabajado para mejorarla. Por ejemplo, el informe técnico de OpenAI decía que la última versión de GPT-4 no respondería preguntas sobre cómo crear bombas con instrucciones para fabricar un arma y elegir un objetivo como lo hacía una versión anterior de GPT-4.

OpenAI advirtió en su sitio web que su GPT-4 a veces alucina hechos y no es del todo confiable, por lo que las personas deben tener cuidado al usar la tecnología en entornos de alto riesgo, usar la revisión humana o evitar situaciones de riesgo por completo.

El informe técnico de OpenAI dice que la empresa ha trabajado para disminuir el uso malicioso de GPT-4, pero reconoce que la empresa no ha eliminado las amenazas asociadas con la tecnología.

“OpenAI ha implementado varias medidas y procesos de seguridad a lo largo del proceso de desarrollo e implementación de GPT-4 que han reducido su capacidad para generar contenido dañino”, dice el informe. «Sin embargo, GPT-4 aún puede ser vulnerable a ataques y exploits adversarios o ‘jailbreaks'».



FUENTE DEL ARTICULO

Agregar Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

CONTENIDO PROMOCIONADO

Categorías

Publicaciones Recientes

Sobre el Editor

Jasson Mendez
Editor del Blog

Nuestra mision es complacer a todos nuestros usuarios sean clientes, lectores o simplemente visitantes, la experiencia merece la pena.

CONTENIDO PROMOCIONADO

CONTENIDO PROMOCIONADO

RD Vitual Copyright © 2022. Todos los Derechos Reservados.