Één wereld, met één internet:dan hebben we toch een community van 7 miljard mensen?
Nog niet – er zijn nog een paar grenzen: landen, verschillende regeringen, juridische structuren, geloof, normen en waarden.
Toch verbleken ze allemaal bij de taal barriere.
Hoe kan je elkaar beter begrijpen
Ik blog al een tijd over deze drempel. Kon ik 5 jaar geleden nog alleen maar hopen, 2 jaar geleden was er al redelijke vooruitgang. En nu komt Microsoft met een indrukwekkende demo, waarin je de volgende grote stap ziet.
Stemherkenning en automatische vertaling spelen hierbij een belangrijke rol.
Zo trekken Siri van Apple, Google Voice Search en de optie om Microsoft Kinnect te besturen met je stem veel aandacht. Ze zijn nu al handig in het normale leven.
De ontwikkeling van automatische vertaling is al wat langer zichtbaar. Dat zie je in producten als Google Translate en Bing Translate, waarmee je een tekst of gesproken woord vertaalt.
Een stap verder is om live een presentatie om te zetten in tekst èn deze direct te vertalen.
Nu: stemherkenning, vertaling en gesproken vertaling – live
Precies dit toonde Rick Rashid van Microsoft Research vorige week:
Hij vertelt eerst over de ontwikkeling van de afgelopen 60 jaar. Deze tekst zie je direct op het scherm. Dit systeem is nog niet perfect. Je ziet als je goed kijkt op het scherm nog incorrecte woorden. Maar toch: het is erg indrukwekkend.
Daarna komt de vertaling in het Chinees op een ander scherm (waarbij zelfs de structuur van zinnen is aangepast).
Als kers op de taart hoor je deze vertaling, met het stemgeluid van Rashid. De Chinese toeschouwers applaudisseren na iedere zin – en niet uit beleefdheid.
Ontwikkelingen zoals deze geven mij hoop op een betere wereld. Misschien duurt het nog 10 of 20 jaar – maar het idee dat ik dan gewoon kan praten met mijn nog niet geboren Chinese kleinkind, maakt mij nu al erg benieuwd.