Affective Computing: Wie KI Emotionen analysiert
Affective Computing – also mittels künstlicher Intelligenz die Emotionen eines Nutzers zu analysieren und entsprechend zu reagieren – hat im Business-Umfeld großes Potenzial.
Die MEDIENWOCHE ist ein digitales Magazin für Medien, Journalismus, Kommunikation & Marketing. Die Redaktion beobachtet und begleitet publizistisch die Entwicklung der Branche in der Schweiz, verfolgt aber auch internationale Trends. Neben den redaktionellen Eigenleistungen bietet die MEDIENWOCHE mit dem «Medienmonitor» (zweimal wöchentlich) und der wochentäglichen Rubrik «Auf dem Radar» Lektüreempfehlungen aus nationalen und internationalen Medien.
Der MEDIENWOCHE können Sie auch über Social Media folgen:
Facebook, Twitter, Xing und Linkedin.
Alle Rechte © 2024 MEDIENWOCHE
Die Lesetipps dieses Themenbereichs werden kuratiert von Thomas Paszti, redaktion@medienwoche.ch.
Affective Computing – also mittels künstlicher Intelligenz die Emotionen eines Nutzers zu analysieren und entsprechend zu reagieren – hat im Business-Umfeld großes Potenzial.
Wer will, kann jetzt schon seine menschlichen Freunde gegen künstlich intelligente Begleiter eintauschen. Es ist daher Zeit, uns zu überlegen, wie wir unser Zusammenleben mit den KIs regeln wollen.
Kilian Gross kümmert sich für die EU-Kommission um die Regulierung von KI. Er erklärt, was hinter dem „AI Act“ steckt.
Wie Wissenschaftskommunikation zur künstlichen Intelligenz wahrgenommen wird, erforscht das Center for Rhetorical Science Communication Research on Artificial Intelligence, gefördert von der VW-Stiftung. Im Interview geben Olaf Kramer vom Seminar für Allgemeine Rhetorik und Annette Leßmöllmann vom KIT Einblicke in die geplanten Forschungsvorhaben.
Künstliche Intelligenz leidet unter strukturellen Problemen. Gut meinende Menschen wollen die mit Werten und Gemeinwohl lösen. Das kann nicht funktionieren.
Die Welt wird durch KI nicht untergehen, auch wenn Science-Fiction-Autoren sich das gerne vorstellen. Trotzdem könnten Maschinen in naher Zukunft die Fäden in der Hand haben.
Wir Menschen verlassen uns heutzutage in vielen Situationen auf die „perfekten“ Computer, die keine Fehler machen. Aber im Bereich Machine Learning machen Algorithmen tatsächlich eine Menge Fehler und diskriminieren sogar Minderheiten und Frauen. Wer daran wirklich schuld ist (Spoiler: Nicht der Algorithmus!) und wie man dieses Problem lösen kann, das erfahrt ihr in diesem Video.
Was jemand kauft, verrät einiges über den politischen Geschmack. Solche Schlüsse lassen sich heute auch dank künstlicher Intelligenz immer leichter ziehen, schreibt unser Kolumnist Adrian Lobe.