Odkrycie roku: znalazłem tłumacza online, który jest lepszy niż ten od Google’a czy Microsoftu

Odkrycie roku: znalazłem tłumacza online, który jest lepszy niż ten od Google’a czy Microsoftu

Odkrycie roku: znalazłem tłumacza online, który jest lepszy niż ten od Google’a czy Microsoftu

Wiem, że zaczął się już 2019 rok, ale zostańmy jeszcze chwilę przy 2018, bo chcę się podzielić moim odkryciem. Po przesiadce z Androida i Windowsa na iOS-a i macOS-a zamieniłem sporo usług Google na apple’owskie zamienniki. W pewnym momencie doszedłem do etapu, w którym zadałem pytanie: „czy jest dobra alternatywa dla Tłumacza Google”? Postanowiłem poszukać.

Początkowo zacząłem intensywnie testować Translator Bing, czyli usługę tłumaczeń od Microsoftu. Szybko okazało się jednak, że tłumaczenia są bardzo słabej jakości, a samo działanie usługi i jej interfejs również pozostawiają wiele do życzenia. Po pierwszym złym wrażeniu próbowałem się zmusić do poznania Tłumacza Bing i dania mu jeszcze jednej szansy. I jeszcze jednej. I jeszcze jednej. I… i się poddałem.

Poszukałem w sieci różnych zestawień usług do tłumaczeń online i już nawet nie pamiętam jak, ale trafiłem na DeepL. To usługa tłumaczeń, za którą stoi Linguee. Może nazwa Linguee nic ci nie mówić, ale mi mówiła, bo pisałem o tej usłudze newsa w 2013 roku, gdy jej twórcy postanowili oficjalnie wejść na polski rynek.

Linguee to dość specyficzny słownik (np. polsko-angielski lub angielsko-polski), który w wynikach wyszukiwania podaje użytkownikowi tłumaczenie oraz masę przykładów wykorzystania szukanego słowa lub frazy w innych tekstach źródłowych. A tych w swojej bazie Linguee ma sporo.

Natomiast DeepL to już nie słownik online, a pełnoprawny tłumacz online, który wykorzystuje przepastną bazę tekstów źródłowych Linguee i zaprzęga sztuczną inteligencję do pracy nad tłumaczeniami. Efekty? Wyjątkowo dobrze przetłumaczone teksty. Jak dobrze? Lepiej niż zrobiłby to Google czy Microsoft.

Nie wierzysz? Sprawdźmy razem.

Porównanie DeepL, Tłumacza Google i Translatora Bing: test #1

Porównanie DeepL, Tłumacza Google i Translatora Bing

Przeprowadźmy małą zabawę. Wkleję teraz kawałek tekstu, który będziemy tłumaczyć z języka angielskiego na język polski.

Oto fragment definicji hasła „DeepL Translator” pochodzący z anglojęzycznej Wikipedii:

DeepL Translator is a translation service launched in August 2017 by DeepL GmbH, a start up company backed up by Linguee. The service currently supports translations between nine major European languages.[1][2] It was shown that DeepL translations sounded somewhat more natural to humans compared to other major translation services such as Google Translate, Microsoft Translator and Facebook,[3][4][5] using BLEU to assess the translation quality against the competitors.[6] Especially the translation results are considered more precise and nuanced at a speed equal to that of its competitors.[7]

Teraz zrobimy tak – podam trzy tłumaczenia, bez podawania usługi, którą wykorzystałem. Przeczytaj wszystkie tłumaczenia i oceń, które jest najlepsze. Później – w dalszej części tekstu – podam wyniki i powiem, które tłumaczenie było wykonane konkretnym tłumaczem.

Pierwsze tłumaczenie

DeepL Translator to usługa tłumaczeniowa uruchomiona w sierpniu 2017 r. przez DeepL GmbH, firmę start-upową wspieraną przez Linguee. Usługa ta obsługuje obecnie tłumaczenia między dziewięcioma głównymi językami europejskimi.[1][2] Wykazano, że tłumaczenia DeepL brzmią nieco bardziej naturalnie dla ludzi w porównaniu z innymi ważniejszymi usługami tłumaczeniowymi, takimi jak Google Translate, Microsoft Translator i Facebook[3][4][5], wykorzystując BLEU do oceny jakości tłumaczeń w porównaniu z konkurencją[6].

Drugie tłumaczenie

DeepL Translator to serwis tłumaczeniowy uruchomiony w sierpniu 2017 roku przez DeepL GmbH, firmę start-up wspieraną przez Linguee. Usługa obsługuje tłumaczenia z dziewięciu głównych języków europejskich. [1] [2] Wykazano, że tłumaczenia DeepL brzmiały nieco bardziej naturalnie dla ludzi w porównaniu z innymi ważnymi usługami tłumaczeniowymi, takimi jak Tłumacz Google, Microsoft Translator i Facebook, [3] [4] [5] przy użyciu BLEU do oceny jakości tłumaczenia w stosunku do konkurentów. [6] ] Zwłaszcza wyniki tłumaczenia są uważane za bardziej precyzyjne i dopracowane z prędkością równą tej, jaką mają konkurenci. [7]

Trzecie tłumaczenie

Deepal translator to usługa tłumaczeniowa rozpoczęła się w sierpniu 2017 przez Deepal GmbH, firma Start up wspierane przez Linguee. Usługa obsługuje obecnie tłumaczenia między dziewięciu głównych językach europejskich. 1 [2] wykazano, że głębokie tłumaczenia brzmiały nieco bardziej naturalne dla ludzi w porównaniu do innych głównych usług tłumaczeniowych, takich jak Google translate, Microsoft Translator i Facebook, [3] [4] [5] Korzystanie BLEU do oceny jakości tłumaczenia na Konkurentów. [6] w szczególności wyniki przekładu są uważane za bardziej precyzyjne i dopracowane z prędkością równą szybkości jego konkurentów. 7

Wyniki?

Pierwszy test mamy za sobą, zaraz zrobimy następny, ale najpierw wyniki: 1. DeepL, 2. Google, 3. Microsoft. Zaskoczenie?

Lecimy dalej. W przetłumaczonym wyżej fragmencie pada skrót BLEU – co oznacza? Sprawdźmy.

Porównanie DeepL, Tłumacza Google i Translatora Bing: test #2

Porównanie DeepL, Tłumacza Google i Translatora Bing

Oto fragment definicji hasła „BLEU (bilingual evaluation understudy)” pochodzący z anglojęzycznej Wikipedii:

BLEU (bilingual evaluation understudy) is an algorithm for evaluating the quality of text which has been machine-translated from one natural language to another. Quality is considered to be the correspondence between a machine’s output and that of a human: “the closer a machine translation is to a professional human translation, the better it is” – this is the central idea behind BLEU.[1][2] BLEU was one of the first metrics to claim a high correlation with human judgements of quality,[3][4] and remains one of the most popular automated and inexpensive metrics.
Scores are calculated for individual translated segments—generally sentences—by comparing them with a set of good quality reference translations. Those scores are then averaged over the whole corpus to reach an estimate of the translation’s overall quality. Intelligibility or grammatical correctness are not taken into account[citation needed].
BLEU’s output is always a number between 0 and 1. This value indicates how similar the candidate text is to the reference texts, with values closer to 1 representing more similar texts. Few human translations will attain a score of 1, since this would indicate that the candidate is identical to one of the reference translations. For this reason, it is not necessary to attain a score of 1. Because there are more opportunities to match, adding additional reference translations will increase the BLEU score.[5]

Pierwsze tłumaczenie

BLEU (dwujęzyczny dublet wyceny) jest algorytmem oceny jakości tekstu, który został przetłumaczony maszynowo z jednego języka naturalnego na inny. Jakość jest uważana za zgodność między wydajnością maszyny a wydajnością człowieka: “im bliżej tłumaczenia maszynowego jest profesjonalne tłumaczenie ludzkie, tym lepiej” – to główna idea BLEU. [1] [2] BLEU był jedną z pierwszych metryk, która twierdziła wysoką korelację z ludzkimi osądami jakości, [3] [4] i pozostaje jednym z najpopularniejszych zautomatyzowanych i niedrogich wskaźników.

Wyniki są obliczane dla poszczególnych przetłumaczonych segmentów – na ogół zdań – poprzez porównywanie ich z zestawem tłumaczeń referencyjnych dobrej jakości. Te wyniki są następnie uśredniane w całym korpusie, aby uzyskać oszacowanie ogólnej jakości tłumaczenia. Zrozumiałość lub poprawność gramatyczna nie są brane pod uwagę [potrzebne źródło].

Wyjście BLEU jest zawsze liczbą od 0 do 1. Ta wartość wskazuje, jak podobny jest tekst kandydujący do tekstów referencyjnych, a wartości bliższe 1 oznaczają bardziej podobne teksty. Niewiele ludzkich tłumaczeń uzyska wynik 1, ponieważ oznacza to, że kandydat jest identyczny z jednym z tłumaczeń referencyjnych. Z tego powodu nie jest konieczne osiągnięcie wyniku 1. Ponieważ istnieje więcej możliwości dopasowania, dodanie dodatkowych tłumaczeń referencyjnych zwiększy wynik BLEU. [5]

Drugie tłumaczenie

BLEU (dwujęzyczna Ocena) jest algorytmem oceny jakości tekstu, który został przetłumaczony maszynowo z jednego języka naturalnego na inny. Uważa się, że jakość jest zbieżna między wyjściem maszyny a urządzeniem ludzkim: “im bliżej tłumaczenia maszynowego jest profesjonalne tłumaczenie ludzkie, tym lepiej jest ” – to jest centralna idea za BLEU. 1 BLEU był jednym z pierwszych wskaźników do ubiegania się o wysoką korelację z ludzkich osądów jakości, [3] [4] i pozostaje jednym z najbardziej popularnych zautomatyzowane i niedrogie metryki.

Wyniki są obliczane dla poszczególnych segmentów przetłumaczonych – ogólnie zdania – porównując je z zestawem dobrej jakości tłumaczeń referencyjnych. Wyniki te są następnie uśredniane w całym korpusie, aby osiągnąć szacunek ogólnej jakości tłumaczenia. Zrozumiałość lub poprawność gramatyczna nie są brane pod uwagę [potrzebne źródło].

Wyjście BLEU jest zawsze liczbą z przedziału od 0 do 1. Wartość ta wskazuje, jak podobny tekst kandydata jest do tekstów odniesienia, z wartościami bliżej do 1 reprezentujących więcej podobnych tekstów. Niewiele ludzkich przekładów osiągnie wynik 1, ponieważ oznaczałoby to, że kandydat jest identyczny z jednym z tłumaczeń referencyjnych. Z tego powodu, nie jest konieczne, aby osiągnąć wynik 1. Ponieważ istnieje więcej możliwości, aby dopasować, dodając dodatkowe tłumaczenia odniesienia zwiększy wynik BLEU. 5

Trzecie tłumaczenie

BLEU (dwujęzyczna ocena niedostatecznie zbadana) jest algorytmem oceny jakości tekstu, który został przetłumaczony maszynowo z jednego języka naturalnego na drugi. Jakość jest uważana za zgodność pomiędzy wynikiem pracy maszyny a wynikiem pracy człowieka: “im bliższe jest tłumaczenie maszynowe profesjonalnemu tłumaczeniu ludzkiemu, tym lepiej” – to główna idea stojąca za BLEU.[1][2] BLEU był jednym z pierwszych wskaźników, który stwierdził wysoką korelację z ludzką oceną jakości,[3][4] i pozostaje jednym z najpopularniejszych automatycznych i niedrogich mierników.

Wyniki są obliczane dla poszczególnych przetłumaczonych segmentów – generalnie zdań – poprzez porównanie ich z zestawem wysokiej jakości tłumaczeń referencyjnych. Wyniki te są następnie uśredniane w całym korpusie w celu oszacowania ogólnej jakości tłumaczenia. Kwalifikowalność lub poprawność gramatyczna nie są brane pod uwagę [konieczne cytaty].

Wyjściem BLEU jest zawsze liczba z przedziału od 0 do 1. Wartość ta wskazuje, jak bardzo tekst kandydacki jest podobny do tekstów referencyjnych, przy czym wartości bliższe 1 reprezentują bardziej podobne teksty. Niewiele tłumaczeń ludzkich uzyska wynik 1, ponieważ wskazywałoby to, że kandydat jest identyczny z jednym z tłumaczeń referencyjnych. Z tego powodu nie jest konieczne uzyskanie punktu 1. Ponieważ jest więcej możliwości dopasowania, dodanie dodatkowych tłumaczeń referencyjnych zwiększy wynik BLEU.[5]

Wyniki?

Teksty zostały przetłumaczone bardzo różnie. Zwróćcie tylko uwagę na fragment „the closer a machine translation is to a professional human translation, the better it is”, który po przetłumaczeniu powinien wyglądać tak: im tłumaczenie maszynowe jest bliższe profesjonalnemu tłumaczeniu ludzkiemu, tym lepiej”. 

Tymczasem dwa translatory przetłumaczyły to odwrotnie: „im bliżej tłumaczenia maszynowego jest profesjonalne tłumaczenie ludzkie, tym lepiej” oraz „im bliżej tłumaczenia maszynowego jest profesjonalne tłumaczenie ludzkie, tym lepiej jest”.

Dopiero trzeci tłumacz przetłumaczył poprawnie i zachował sens oryginalnego zdania – porównywał tłumaczenie maszynowe do profesjonalnego tłumaczenia ludzkiego, które funkcjonuje tutaj jako wzór: „im bliższe jest tłumaczenie maszynowe profesjonalnemu tłumaczeniu ludzkiemu, tym lepiej”. Tym trzecim tłumaczem był teraz DeepL.

Wyniki: 1.Google, 2. Microsoft, 3. DeepL.

Porównanie DeepL, Tłumacza Google i Translatora Bing: test #3

DeepL - tłumacz online, który jest lepszy niż Tłumacz Google i Microsoftu

To teraz spróbujmy tłumaczenia w drugą stronę – z polskiego na angielski.

Będziemy tłumaczyć fragment rozmowy Łukasza Kotkowskiego – redaktora Spider’s Web – z Dominikiem Sołtysikiem – przedstawicielem polskiego oddziału Microsoftu:

Łukasz Kotkowski, Spider’s Web: Które edycje Surface cieszą się większym zainteresowaniem? Budżetowe, z mniejszą ilością pamięci i bardziej energooszczędnym procesorem, czy te najlepiej wyposażone?

Dominik Sołtysik, Surface Category Lead w polskim oddziale Microsoft: W Polsce, podobnie jak na świecie, najlepiej sprzedającym się modelem Surface jest Pro.

Wynika to z wyjątkowego form-factora, opracowanego by zapewnić użytkownikom urządzenie wszechstronne. Surface Pro jest w gruncie rzeczy ultrabookiem zamkniętym w formie tabletu – mocnym komputerem z funkcją tabletu, do tego bardzo przenośnym. To właśnie główny powód, dla którego nasi klienci wybierają najczęściej właśnie Surface Pro.

Staraliśmy się dostosować nasze produkty do potrzeb różnych grup klientów – w tym takich, którzy korzystają tylko z podstawowych funkcji komputera i cenią jednocześnie wspomnianą wcześniej wszechstronność, ale i także tych najbardziej wymagających, którzy naszych urządzeń używają do tworzenia treści – edycji zdjęć, wideo, zaawansowanych modeli 3D, architektury, programowania – gdzie moc obliczeniowa ma zasadnicze zastosowanie.

Dziś najczęściej wybieraną konfiguracją jest ta z procesorem Intel Core i5 7 gen. oraz 8 GB RAM-u, co stanowi wygodny kompromis dla większości naszych klientów. W przypadku drugiego najlepiej sprzedającego się modelu – Surface Book 2 – sytuacja wygląda zdecydowanie inaczej, najlepiej sprzedają się modele z procesorami Intel Core i7, 16 GB RAM-u i zewnętrznym GPU.

Teraz przejdźmy do tłumaczeń. Znowu pomieszałem kolejność wykorzystanych platform – wyniki w dalszej części tekstu.

Pierwsze tłumaczenie:


Lukasz Kotkowski, Spider’s Web: which Surface edits have more interest? Budget, with less memory and more energy efficient processor, are these the best equipped?

Dominik Sołtysik, Surface Category Lead, Microsoft’s Polish branch: In Poland, like in the world, the best-selling surface model is Pro.

This is due to the unique form-factor developed to provide users with a versatile device. Surface Pro is essentially an ultrabook in tablet form – a powerful PC with a tablet, so it’s very portable. This is the main reason why our customers choose the most common Surface Pro.

We have tried to adapt our products to the needs of different customer groups – including those who use only the basic functions of the computer and appreciate the aforementioned versatility, but also the most demanding ones who Our devices use to create content – editing photos, videos, advanced 3d models, architectures, programming – where computing power is essential.

Today, the most popular configuration is the one with the Intel Core I5 7 Gen. and 8GB RAM, which is a convenient compromise for most of our customers. For the second best-selling model – Surface Book 2 – The situation looks very different, the best selling models with Intel Core i7, 16GB RAM and external GPU.

Drugie tłumaczenie

Łukasz Kotkowski, Spider’s Web: Which editions of Surface are more popular? Budgetary, with less memory and a more energy efficient processor, or the best equipped ones?

Dominik Sołtysik, Surface Category Lead in the Polish branch of Microsoft: In Poland, just like in the world, the best-selling Surface model is Pro.

This is due to the unique form-faced processor, designed to provide users with a versatile device. Surface Pro is basically an ultrabook closed in the form of a tablet – a powerful computer with tablet function and very portable. That’s the main reason our customers choose Surface Pro.

We have tried to tailor our products to the needs of different customer groups – including those who use only the basic features of a computer and value the aforementioned versatility, but also those who use our devices to create content – editing photos, videos, advanced 3D models, architecture, programming – where computational power is essential.

Today, the most popular configuration is Intel Core i5 7 gen. processor and 8 GB of RAM, which is a convenient compromise for most of our customers. For the second best-selling model, Surface Book 2, the situation is definitely different, with Intel Core i7, 16GB of RAM and an external GPU selling best.

Trzecie tłumaczenie:

Łukasz Kotkowski, Spider’s Web: Which Surface editions enjoy more interest? Budget, with less memory and a more energy-efficient processor, or the best-equipped?

Dominik Sołtysik, Surface Category Lead in the Polish Microsoft branch: In Poland, like in the world, the best-selling Surface is Pro.

This is due to the unique form-factor developed to provide users with a versatile device. Surface Pro is essentially an ultrabook enclosed in the form of a tablet – a powerful computer with the tablet function, and very portable. This is the main reason why our customers choose Surface Pro most often.

We have tried to adapt our products to the needs of various customer groups – including those who only use the basic functions of the computer and appreciate the aforementioned versatility, but also the most demanding ones who use our devices to create content – photo editing, video, advanced 3D models, architecture, programming – where computing power is essential.

Today, the most-chosen configuration is the one with the Intel Core i5 7 gen. Processor and 8 GB RAM, which is a convenient compromise for the majority of our clients. In the case of the second best-selling model – Surface Book 2 – the situation is much different, models with Intel Core i7, 16 GB RAM and an external GPU are selling the best.

Wyniki?

Tłumaczenia są dość podobne, ale jest kilka zdań, które zostały przetłumaczone ładniej, przez niektóre platformy.

Oto wyniki: 1. Microsoft, 2. DeepL, 3. Google.

To tyle ode mnie. Mam nadzieję, że zaciekawiłem was trochę tłumaczem DeepL, którym jestem oczarowany i bez chwili zawahania mogę nazwać go moim odkryciem 2018 roku. W 2019 też będę korzystał. Polecam. Warto dać mu szansę.

Dołącz do dyskusji