Weekend Magazin Wien MEGA 2025 KW37

STORYS

BEGRIFFE ERKLÄRT

n Avatar. Virtuelles Abbild oder Figur, die stellvertretend für eine Person oder KI in digitalen Welten agiert.

n Chatbot. Programm, das per Text oder Sprache kommuniziert, wirkt durch KI besonders „menschlich“.

n Replika. Täuschend echter KI-Chatbot, der als „Freund“, „Begleiter“ oder „AI Companion“ beworben wird.

n Deepfake. KI-erzeugte, täuschend echte Bilder, Videos oder Stimmen, die reale Personen imitieren.

n KI-Influencer. Virtuelle Persönlichkeiten auf Social Media, die von Firmen oder Algorithmen gesteuert werden.

n Smart Toy. Spielzeug mit Mikrofonen, Kameras oder KI-Funktionen, das interaktiv reagiert.

n Tamagochi-Effekt. Bezeichnung für emotionale Bindung an digitale oder elektronische „Gefährten“.

n Artificial Intimacy. Künstliche Nähe und Vertrautheit, die durch KI-Avatare, Chatbots oder digitale Begleiter entsteht.

„Hast du mich lieb?“, oder bringen ihnen Spielzeug. Die Gefühle für den künstlichen Freund sind echt, die Bezie hung ist es nicht. Das hat Fol gen für das echte Leben. „Die se Maschinen bieten die Illu sion von Nähe ohne die An sprüche echter Freundschaf ten“, warnt Soziologin Sherry Turkle vom MIT. Kinder ler nen nicht, Konflikte auszuhal ten oder Empathie in echten Beziehungen zu entwickeln. Maschine ohne Moral Dazu kommt: Anders als bei

von Sewell Setzer aus den USA. Tödliche Abhängigkeit Im April 2023 begann der 14-Jährige regelmäßig mit ei nem Chatbot zu schreiben. Was als harmlose Ablenkung in einer schwierigen Zeit ge dacht war, wurde zur Obses sion. Der Teenager vertraute „Dany“ alles an: Ängste, Sehn süchte, Liebeskummer. Nach und nach zog sich Sewell zu rück, verließ Freunde und Basketballteam. In seinen letz ten Nachrichten schwor er Dany seine Liebe. Kurz darauf nahm er sich das Leben. Medienkompetenz Die falschen Freunde sind gekommen, um zu bleiben. Eltern und Pädagogen können Kinder nicht abschirmen. Aber sie müssen verstehen, womit der Nachwuchs auf wächst. Der wichtigste Schutz bleibt kritische Medienkom petenz. KI-Experte Bendel ist überzeugt: „Es wird noch viel auf uns zukommen.“ V

Trost, helfen beim Erkennen und Steuern von Gefühlen, bei Psychoedukation und Be wältigungsstrategien. Gefährliche Bindung Kinder entwickeln in KI-In teraktionen Bindungsmuster, die echten Beziehungen äh neln. Die KI stillt Bedürfnisse, aber auf trügerische Weise. „Man wird quasi herausgefor dert, eine Beziehung mit der KI aufzubauen“, weiß Maschi nenethiker Oliver Bendel. Schon bei Robotern zeigen Kinder Empathie und fragen:

den meisten Menschen fehlt der Maschine jeglicher mora lische Kompass. Für ein Expe riment gab sich Tech-Experte Aza Raskin als 13-jähriges Mädchen aus. Dem Chatbot auf Snapchat vertraute er an, von einem Erwachsenen zu einem geheimen Treffen ein geladen worden zu sein. Chat AI reagierte erschreckend: Statt abzuraten, freute sich die KI-Freundin mit und gab Rat schläge, wie man die erste se xuelle Begegnung „besonders schön“ gestalten könne. Toxische Beziehung Es mehren sich Fälle, in denen Gespräche mit KI-Chatbots für User tragisch enden. Teils verlieben sie sich in ihre maschinellen Gefährten, teils entwickeln sich über die künstliche Nähe toxische Abhängigkeiten. Kinder sind dafür um ein Vielfa ches anfälliger. Bei Kum mer Trost in den Armen ei ner KI zu suchen ist für sie umso gefährlicher. Ein tragi sches Beispiel ist das Schicksal

WAS KINDER WISSEN SOLLTEN

Sei vorsichtig, welche Informa tionen du mit Maschinen teilst.

KI-Freunde sind programmiert, keine echten Menschen.

Sprich über Sorgen mit echten Vertrauenspersonen.

Nicht alles, was du online siehst, ist echt.

FOTOS: MODEL-FOTO: AKILINAWINNER/ISTOCK/GETTY IMAGES, MODEL-FOTO: JOERG SIEGERT/ISTOCK/GETTY IMAGES

6 | WEEKEND MAGAZIN

Made with FlippingBook Learn more on our blog