Please use this identifier to cite or link to this item: https://hdl.handle.net/20.500.11851/1966
Full metadata record
DC FieldValueLanguage
dc.contributor.authorYıldız, Burak-
dc.contributor.authorDemirci, Muhammed Fatih-
dc.date.accessioned2019-07-10T14:42:42Z
dc.date.available2019-07-10T14:42:42Z
dc.date.issued2016
dc.identifier.citationYıldız, B., & Demirci, M. F. (2016, May). Efficient near-duplicate image detection with created feature subset. In 2016 24th Signal Processing and Communication Application Conference (SIU)(pp. 1901-1904). IEEE.en_US
dc.identifier.isbn978-1-5090-1679-2
dc.identifier.urihttps://ieeexplore.ieee.org/document/7496136-
dc.identifier.urihttps://hdl.handle.net/20.500.11851/1966-
dc.description24th Signal Processing and Communication Application Conference (SIU) (2016 : Zonguldak, Turkey )
dc.description.abstractThe creation of distinctive subset of the interest points for near-duplicate image detection is significant in two terms. The former is that the query time decreases reasonably. The latter is that using the distinctive subset of the interest points for near-duplicate detection performs better than the ordinary subsets. In this paper, we propose a novel interest point selection method. Such a method, the distinctive subset is created with a density map which is calculated from the interest points to rank them. We examined some experiments to show the performance of the proposed method and we get a performance of 95.46% recall while the precision is 96.04%.en_US
dc.description.abstractBelirgin öznitelik alt kümesini oluşturma, neredeyse özdeş görüntü algılama için iki açıdan önemlidir. Bunlardan ilki sorgu süresi önemli ölçüde azalır. İkincisi ise neredeyse özdeş görüntü algılamada belirgin özniteliklerin alt kümesini kullanmak sıradan alt kümeleri kullanmaktan daha iyi sonuç verir. Biz bu makalede belirgin öznitelik seçimi için özgün bir yöntem önerdik. Bu metotta belirgin alt küme, öznitelikleri derecelendirmek için yine bu özniteliklerle hesaplanan bir yogunluk haritasıyla oluşturuldu. Önerdigimiz bu metodun performansını göstermek için bazı testler yaptık ve %95.46’lık geri çagırmaya karşılık %96.4’lük bir kesinlik elde ettik.en_US
dc.language.isotren_US
dc.publisherIEEEen_US
dc.rightsinfo:eu-repo/semantics/closedAccessen_US
dc.subjectinterest point selectionen_US
dc.subjectnear-duplicate image detectionen_US
dc.subjectnear-duplicate image retrievalen_US
dc.subjectdensity map creationen_US
dc.subjectöznitelik seçimitr_TR
dc.subjectneredeyse özdeş görüntü tespititr_TR
dc.subjectneredeyse özdeş görüntü bulmatr_TR
dc.subjectyoğunluk haritası oluşturma.tr_TR
dc.titleEfficient Near-Duplicate Image Detection With Created Feature Subseten_US
dc.title.alternativeOluşturulan Öznitelik Alt Kümesiyle Verimli Neredeyse Özdeş Görüntü Tespitien_US
dc.typeConference Objecten_US
dc.departmentFaculties, Faculty of Engineering, Department of Computer Engineeringen_US
dc.departmentFakülteler, Mühendislik Fakültesi, Bilgisayar Mühendisliği Bölümütr_TR
dc.identifier.startpage1901
dc.identifier.endpage1904
dc.identifier.wosWOS:000391250900452en_US
dc.identifier.scopus2-s2.0-84982833759en_US
dc.institutionauthorDemirci, Muhammed Fatih-
dc.identifier.doi10.1109/SIU.2016.7496136-
dc.authorscopusid14041575400-
dc.relation.publicationcategoryKonferans Öğesi - Uluslararası - Kurum Öğretim Elemanıen_US
item.openairetypeConference Object-
item.languageiso639-1tr-
item.grantfulltextnone-
item.fulltextNo Fulltext-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
crisitem.author.dept02.3. Department of Computer Engineering-
Appears in Collections:Bilgisayar Mühendisliği Bölümü / Department of Computer Engineering
Scopus İndeksli Yayınlar Koleksiyonu / Scopus Indexed Publications Collection
WoS İndeksli Yayınlar Koleksiyonu / WoS Indexed Publications Collection
Show simple item record



CORE Recommender

WEB OF SCIENCETM
Citations

1
checked on Nov 9, 2024

Page view(s)

74
checked on Dec 16, 2024

Google ScholarTM

Check




Altmetric


Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.