Publikationen

  • Publikationen
  • Peer-reviewed
  • Visual and textual sentiment analysis of brand-related social media pictures using deep convolutional neural networks

Zitiervorschlag

Paolanti, M., Kaiser, C., Schallner, R., Frontoni, E., & Zingaretti, P. (2017). Visual and textual sentiment analysis of brand-related social media pictures using deep convolutional neural networks. In S. Battiato, G. Gallo, R. Schettini, & F. Stanco (Eds.). Lecture Notes in Computer Science. Presented at the International Conference on Image Analysis and Processing, 402–413, Springer. https://doi.org/10.1007/978-3-319-68560-1_36

Jahr

2017

Autorinnen und Autoren
Dr. Carolin Kaiser,
Marina Paolanti,
Emanuele Frontoni,
Primo Zingaretti
Titel der Publikation
Visual and textual sentiment analysis of brand-related social media pictures using deep convolutional neural networks
Publikation
Peer-reviewed

Visual and textual sentiment analysis of brand-related social media pictures using deep convolutional neural networks

Diese Publikation ist nur in englischer Sprache verfügbar.  

Abstract: 

Bilder in sozialen Medien stellen für Unternehmen eine reichhaltige Wissensquelle dar, um die Meinung der Verbraucher zu verstehen, da sie in Echtzeit und zu geringen Kosten verfügbar sind und ein aktives Feedback darstellen, das nicht nur für Unternehmen, die Produkte entwickeln, sondern auch für ihre Konkurrenten und potenzielle Verbraucher von Bedeutung ist. Um die Gesamtstimmung eines Bildes einschätzen zu können, ist es wichtig, nicht nur die Stimmung der visuellen Elemente zu beurteilen, sondern auch die Bedeutung des enthaltenen Textes zu verstehen. In diesem Beitrag wird ein Ansatz zur Schätzung der Gesamtstimmung von markenbezogenen Bildern aus sozialen Medien vorgestellt, der sowohl auf visuellen als auch auf textlichen Hinweisen basiert. Im Gegensatz zu bereits existierenden Arbeiten betrachten wir nicht den Text, der ein Bild begleitet, sondern den Text, der in ein Bild eingebettet ist, was eine größere Herausforderung darstellt, da der Text zuerst erkannt und erkannt werden muss, bevor seine Stimmung identifiziert werden kann. Basierend auf visuellen und textuellen Merkmalen, die von zwei trainierten Deep Convolutional Neural Networks (DCNNs) extrahiert werden, wird die Stimmung eines Bildes durch einen Machine Learning Classifier identifiziert. Der Ansatz wurde auf einem neu gesammelten Datensatz, dem "GfK Verein Dataset", angewandt und getestet, wobei verschiedene Algorithmen des maschinellen Lernens verglichen wurden. Die Experimente ergaben eine hohe Genauigkeit, was die Effektivität und Eignung des vorgeschlagenen Ansatzes beweist. 

Autorinnen und Autoren

  • Dr. Carolin Kaiser, Head of Artificial Intelligence, NIM, carolin.kaiser@nim.org
  • Marina Paolanti, Department of Information Engineering, Universià Politecnica delle Marche
  • Emanuele Frontoni, Department of Information Engineering, Universià Politecnica delle Marche
  • Primo Zingaretti, Department of Information Engineering, Universià Politecnica delle Marche

Kontakt

Dr. Carolin Kaiser

Head of Artificial Intelligence

Publikation teilen
Zum Seitenanfang