El debate entre memorización y generalización en los LLM (modelos de lenguaje extensos, por sus siglas en inglés) no es nuevo. Pero pocas veces se aborda con la precisión casi quirúrgica con la que lo han hecho un grupo de investigadores de Meta, Google DeepMind, NVIDIA y la Universidad de Cornell. ¿Cuánto puede recordar un LLM de sus datos de […]Leer más