A ChatGPT le puedes pedir que haga prácticamente cualquier cosa. Pero hay una serie de peticiones a las que siempre se negará. La inteligencia artificial, aunque haya quien piense que no tiene límites, está preparada para decir siempre que no a una serie de tareas que no entran dentro de los límites que sus creadores y ella misma consideran aceptables. Podrías intentarlo, pero lo más probable es que falles en el intento.
La inteligencia artificial de OpenAI es muy poderosa y capaz.
Otras cosas que no puede hacer
Hay algunos casos en los que ChatGPT sí que puede ser engañado para que realice tareas o participe en conversaciones en las que no debería. De todas maneras, son casos en los que, como en el ejemplo anterior, hay que recurrir a programación avanzada y a hackear el sistema para poder reescribir la forma de actuar de la inteligencia artificial. Esto ocurre, por ejemplo, si alguien intenta pedirle a la IA que diseñe un malware. Solo es posible engañar a ChatGPT para que lo haga siguiendo una serie de técnicas complejas que no están al alcance de todos. Lo mismo se puede decir de aquellas peticiones que van en contra de la propia seguridad de la IA. Si lo intentas, la negativa será instantánea, pero siempre hay maneras de poder destruir sus barreras para llegar a descubrir que la herramienta puede olvidarse de su código ético si se tocan las teclas adecuadas.
No obstante, a nivel de te retamos a que intentes hacer las cosas que te hemos contado en este articulo para ver si hay alguna con la que sí convenzas a la IA. Quizá tienes suerte y acabas descubriendo la clave por la que ChatGPT podría pronosticar los resultados deportivos de los próximos meses. ¡No estaría mal!