Please use this identifier to cite or link to this item:
https://hdl.handle.net/20.500.11851/3550
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Ergin, Oğuz | - |
dc.contributor.author | Harma, Simla Burcu | - |
dc.date.accessioned | 2020-06-17T06:18:29Z | |
dc.date.available | 2020-06-17T06:18:29Z | |
dc.date.issued | 2020 | |
dc.identifier.citation | Harma, S. (2020).Yapay sinir ağları ile makine çevirisinin detaylı başarım analizi. Ankara: TOBB ETÜ Fen Bilimleri Enstitüsü. [Yayınlanmamış yüksek lisans tezi] | tr_TR |
dc.identifier.uri | https://hdl.handle.net/20.500.11851/3550 | - |
dc.description.abstract | Teknoloji çağında yaşıyoruz ve son on yılda Yapay Zeka üzerine en çok çalışılan teknoloji olmuştur. Sayısız alanda uygulaması bulunmakla birlikte, Yapay Sinir Ağları ile Makine Çevirisi (YMÇ) temel araştırma alanlarından birisidir. Google, Facebook, Amazon, Microsoft, Yandex gibi birçok büyük şirket ürünlerinde YMÇ kullanmaktadır ve YMÇ'nin kullanıcılara servis olarak sunulması son zamanlarda benimsenen bir yöntem olmuştur. Bu servislerin, kullanıcı memnuniyeti açısından, hız ve çeviri kalitesi başta olmak üzere bazı kısıtları sağlamaları gerekmektedir. YMÇ modellerini hızlandır- mak konusunda birçok çalışma yapılmıştır, ancak bildiğimiz kadarıyla bu çalışmaların hiçbiri detaylı başarım/zaman analizinde bulunmamıştır. Bu çalışmada en gelişmiş YMÇ modellerinden birisi olan, kodlayıcı-kodçözücü yapısını ilgi mekanizmasıyla birleştiren Dönüştürücü modeli ile çalışılmıştır. Dönüştürücü'nün etrafına bir mikroservis kurulmuş ve sistemin darboğazının modelin kendisi olduğu gösterilmiştir. Bunun üzerine temel yapılandırma parametrelerinin değişimiyle deneyler yapılmış ve bu parametrelerin başarımı hassas bir şekilde etkilediği gözlenmiştir. Bunun üzerine modelin her bir bileşeninin CPU ve GPU'da detaylı zaman dökümü çıkarılmış ve en verimsiz aşamanın ışın araması olduğu gösterilmiştir. Daha sonra ışın aramasının daha iyi anlaşılması adına her bir adımını gösteren zaman dökümü çıkarılmıştır. Ayrıca, ışın boyutunun BLEU skorunu sadece kelime-bazında etkilediği, türce-bazında bir etkisinin olmadığı gözlemlenmiştir. Son olarak kelime-hazinesi büyüklüğünün ışın aramasının başarımında büyük rolü olduğu gösterilmiştir. | tr_TR |
dc.description.abstract | We live in the technology era and over the last decade Artificial Intelligence (AI) has been the most focused technology. It has applications in countless topics and neural machine translation (NMT) is one of the major research areas. Many big companies like Google, Facebook, Amazon, Microsoft, Yandex deploy NMT in their production systems and NMT services has become popular lately. These services need to provide some constraints, especially speed and translation quality, for user satisfaction. There has been significant amount of work on accelerating NMT models however to the best of our knowledge, there is no detailed research giving a detailed performance analysis of each step in a model. In this work, one of the state-of-the-art models the Transformer is used. It has encoder-decoder architecture with an additional attention mechanism. A microservice is implemented on top of the Transformer model and it is showed that the bottleneck is the model itself. Then, several experiments with different configuration values has been conducted and it is observed that the performance of the model is highly sensitive to the changes in these values. A detailed performance breakdown of the model in CPU and GPU show that beam search is a big source of inefficiency. So a detailed time breakdown of the beam search is obtained in order to have a better understanding. Additionally, it is observed that the beam size only affects BLEU score at word level, and not at token level. Finally, it is showed that the vocabulary size has a major role on the performance of the beam search. | en_US |
dc.language.iso | tr | en_US |
dc.publisher | TOBB ETÜ Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | en_US |
dc.subject | Neural Machine Translation | en_US |
dc.subject | Microservices | en_US |
dc.subject | Neural Networks | en_US |
dc.subject | Deep Learning | en_US |
dc.subject | Performance Analysis | en_US |
dc.subject | Makine Çevirisi | tr_TR |
dc.subject | Mikroservisler | tr_TR |
dc.subject | Yapay Sinir Ağları | tr_TR |
dc.subject | Derin Öğrenme | tr_TR |
dc.subject | Performans Analizi | tr_TR |
dc.title | Yapay Sinir Ağları ile Makine Çevirisinin Detaylı Başarım Analizi | en_US |
dc.title.alternative | An In-Depth Performance Analysis of Neural Machine Translation Tasks | en_US |
dc.type | Master Thesis | en_US |
dc.department | Institutes, Graduate School of Engineering and Science, Computer Engineering Graduate Programs | en_US |
dc.department | Enstitüler, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Ana Bilim Dalı | tr_TR |
dc.relation.publicationcategory | Tez | en_US |
item.openairetype | Master Thesis | - |
item.languageiso639-1 | tr | - |
item.grantfulltext | open | - |
item.fulltext | With Fulltext | - |
item.openairecristype | http://purl.org/coar/resource_type/c_18cf | - |
item.cerifentitytype | Publications | - |
Appears in Collections: | Bilgisayar Mühendisliği Yüksek Lisans Tezleri / Computer Engineering Master Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
619558 (1).pdf | Simla Burcu Harma_Tez | 2.05 MB | Adobe PDF | View/Open |
CORE Recommender
Page view(s)
306
checked on Dec 16, 2024
Download(s)
76
checked on Dec 16, 2024
Google ScholarTM
Check
Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.