Een kleine geschiedenisles
Sinds de eerste vertaalmachine zijn intrede deed halverwege de 20e eeuw ontwikkelt de technologie daarachter zich in razend tempo. Waar gebruikers nog niet zo lang geleden dubbel lagen om de gemankeerde vertalingen die eruit kwamen rollen, worden ze inmiddels met de dag beter. Vooral DeepL timmert hard aan de weg om de menselijke vertalers voorbij te suizen. Maar wat zit er achter de snelle ontwikkeling van deze vertaalmachines?
In de jaren ‘80 maakten vertaalmachines vooral gebruik van systemen waarbij woordenboeken gecombineerd worden met taalkundige- en grammaticaregels. Dit maakte de resultaten enorm wisselend: als het bronwoord al juist was vertaald, dan was de grammatica om te huilen of klopte de zinsstructuur niet. Vanaf de jaren ‘90 werd steeds vaker gebruik gemaakt van systemen op basis van statistische modellen, die werden gevoed met een steeds groeiende hoeveelheid tekst. Hoe meer input, des te beter het resultaat.
Sinds 2015 maken vertaalmachines gebruik van deep learning (DL) en neurale netwerken, vergelijkbaar met het menselijke brein. DL is een vergevorderde vorm van machine learning. Data wordt verwerkt en geanalyseerd om tekst te genereren die menselijk ‘aanvoelt’, dus alsof het door een mens geschreven is. Doordat het systeem met grote hoeveelheden tekstdata is getraind, kan het context en semantiek steeds beter begrijpen.