Un estudio realizado por investigadores de la Universidad de Illinois Urbana-Champaign (Estados Unidos) ha puesto en evidencia que los modelos de lenguaje grandes (LLM, por sus siglas en inglés) tienen gran potencial para ejecutar acciones con fines maliciosos si se manipulan con ese propósito....