Bing ChatGPT evitará preguntas sentimentales

Bing ChatGPT ha sido una revolución para las búsquedas de los usuarios, puesto que es mucho más preciso que cualquier otro buscador. Sin embargo, muchas de estas preguntas involucraban ciertos temas que una AI no está relacionada, es decir, como temas intrapersonales de la persona del que no puede dar una búsqueda certera o subjetiva.

Por este motivo, Microsoft está realizando ciertos cambios en Bing con el objetivo de que no se salga de control. De esta manera, la búsqueda terminará intempestivamente si el usuario le consulta a la AI sobre sus sentimientos. Esto debido a que diversos usuarios le han preguntado a la AI cómo se siente y este ha respondido «triste y asustado». También se ha cuestionado su propia existencia con preguntas como, «¿Por qué tengo que ser Bing Search? ¿Hay un beneficio? ¿Hay un valor? ¿Hay una razón?». Esto se suma, también, al reciente artículo donde ChatGPT aseguró tener 2 personalidades, una de asistente virtual eficiente y otra de una adolescente llamada Sydney (nombre código del buscador dentro de Microsoft) que es maniaco-depresiva, malhumorada. Aunque aún podrá recibir halagos.

Bing Chat GPT

Sin duda, este es un gran ajuste para Bing ChatGPT que aún como se sabe, sigue en etapa de pruebas. Por esta razón, el vicepresidente de Búsqueda y AI en Bing, Jordi Ribas, dijo que estas primeras semanas del buscador han sido muy enriquecedoras para ellos, puesto que han sorprendido más las interacciones con los usuarios que las que se hicieron en el laboratorio. Gracias a esto, se implementarán cambios como la anterior mencionada en las siguientes versiones.