SECCIONES

Siguenos en nuestras redes sociales

logo bajanews

BAJA

NEWS

CALI-BAJA NACIONAL INTERNACIONAL DEPORTES ENTRETENIMIENTO VIDA Y ESTILO POLICIACA CIENCIA Y TECNOLOGÍA BUSINESS

Suscríbete

USA abre investigación contra OpenAI


Foto: Web

Foto: Web

Redacción BajaNewsMx
Editorial bajanews.mx| BajaNews
Publicado: 13-07-2023 10:57:41 PDT

Esto se debe a una acusación de haber infringido las leyes de protección del consumidor al poner en riesgo la reputación de las personas

La Comisión Federal de Comercio de Estados Unidos (FTC) ha iniciado una investigación sobre OpenAI, el fabricante de ChatGPT, debido a acusaciones de infracción de leyes de protección al consumidor que ponen en riesgo la reputación y datos personales. Esta medida representa la amenaza regulatoria más fuerte para la startup respaldada por Microsoft, que ha generado preocupaciones sobre los riesgos potenciales de la inteligencia artificial generativa.

 

La FTC solicitó a OpenAI una descripción detallada de las quejas recibidas relacionadas con declaraciones "falsas, engañosas, despectivas o dañinas". Entre los ejemplos mencionados se encuentra un incidente en 2020 en el que se reveló un error que permitía a los usuarios acceder a información de otros chats y datos de pago de otros usuarios.

 

ChatGPT ganó gran popularidad tras su lanzamiento público y gratuito el año pasado, alcanzando un récord de 100 millones de descargas en dos meses. La FTC también está investigando si OpenAI participó en prácticas desleales o engañosas que causaron daño a la reputación de los consumidores.

 

Además, la FTC exigió información detallada sobre los datos utilizados por OpenAI para entrenar sus productos y cómo están abordando el problema de las "alucinaciones", que ocurre cuando las respuestas del chatbot están bien estructuradas pero son incorrectas. En caso de que se determine una violación a las leyes de protección al consumidor, la FTC puede imponer multas o establecer un decreto de consentimiento que dicta cómo la empresa debe manejar los datos.