O texto explora os perigos dos grandes modelos de linguagem (LMs), questionando se o seu tamanho crescente é sustentável ou benéfico. Os autores destacam custos ambientais e financeiros significativos, que desfavorecem comunidades marginalizadas. Além disso, os modelos, treinados em dados massivos e não curados da internet, frequentemente incorporam e amplificam vieses hegemônicos, levando a reprodução de estereótipos e discursos de ódio. Os autores argumentam que a aparente coerência desses LMs pode induzir a erro sobre sua verdadeira compreensão da linguagem e gerar textos prejudiciais, com riscos que variam desde a perpetuação de preconceitos até uso malicioso. Por fim, eles propõem um refoque na curadoria de dados, documentação rigorosa e uma abordagem de design mais consciente para mitigar esses riscos.