Lo puedes intentar, pero ChatGPT siempre se negará a hacer estas cosas

A ChatGPT le puedes pedir que haga prácticamente cualquier cosa. Pero hay una serie de peticiones a las que siempre se negará. La inteligencia artificial, aunque haya quien piense que no tiene límites, está preparada para decir siempre que no a una serie de tareas que no entran dentro de los límites que sus creadores y ella misma consideran aceptables. Podrías intentarlo, pero lo más probable es que falles en el intento.
La inteligencia artificial de OpenAI es muy poderosa y capaz.
Así, aunque ChatGPT no puede buscar online, sí que tienen la capacidad de hacerlo tanto Bing Chat, con el propio motor de búsqueda de Microsoft, como Google Bard. Pero ChatGPT, al menos hoy por hoy, no es capaz de ello.
No puede hablar de información privada
La esencia de ChatGPT funciona alrededor de los datos e información que captó públicamente en el momento de su concepción. Todo ello estaba disponible de manera pública de forma que tanto la IA o cualquier podían acceder a ella. Por ello, si intentas hablar de temas que no se engloben dentro de esta información pública, como hablar de datos privados o confidenciales, nunca lo conseguirás.
No sabe qué pasó después de 2021
Es posible que sepas que ChatGPT tiene una base de conocimiento con una fecha límite. Esta se establece en el año 2021. Todo lo que haya ocurrido a partir de esa fecha es desconocido para la inteligencia artificial. Si bien cuenta con una cantidad enorme de datos e información, no sabrá nada posterior a ese año. Si utilizas ChatGPT en su versión 3.5, la fecha de corte que debes conocer es el mes de junio de 2021. En el caso de la versión 4, su base de datos está un poco más actualizada, dado que se expande hasta septiembre del mismo año.
Otras cosas que no puede hacer
Hay algunos casos en los que ChatGPT sí que puede ser engañado para que realice tareas o participe en conversaciones en las que no debería. De todas maneras, son casos en los que, como en el ejemplo anterior, hay que recurrir a programación avanzada y a hackear el sistema para poder reescribir la forma de actuar de la inteligencia artificial. Esto ocurre, por ejemplo, si alguien intenta pedirle a la IA que diseñe un malware. Solo es posible engañar a ChatGPT para que lo haga siguiendo una serie de técnicas complejas que no están al alcance de todos. Lo mismo se puede decir de aquellas peticiones que van en contra de la propia seguridad de la IA. Si lo intentas, la negativa será instantánea, pero siempre hay maneras de poder destruir sus barreras para llegar a descubrir que la herramienta puede olvidarse de su código ético si se tocan las teclas adecuadas.
No obstante, a nivel de te retamos a que intentes hacer las cosas que te hemos contado en este articulo para ver si hay alguna con la que sí convenzas a la IA. Quizá tienes suerte y acabas descubriendo la clave por la que ChatGPT podría pronosticar los resultados deportivos de los próximos meses. ¡No estaría mal!