Maska za jezikovno modeliranje je pristop k treniranju nevronskih mrež za generiranje besedila, pri katerem se del besed v naboru podatkov naključno zakrije, model pa se nato uči napovedati te zakrite besede na podlagi konteksta. Ta pristop se uporablja v nekaterih arhitekturah, kot je BERT, vendar ne v arhitekturi GPT, na kateri temelji ChatGPT.