Weekend Magazin Burgenland Süd 2025 KW37
STORYS
BEGRIFFE ERKLÄRT
n Avatar. Virtuelles Abbild oder Figur, die stellvertretend für eine Person oder KI in digitalen Welten agiert.
n Chatbot. Programm, das per Text oder Sprache kommuniziert, wirkt durch KI besonders „menschlich“.
n Replika. Täuschend echter KI-Chatbot, der als „Freund“, „Begleiter“ oder „AI Companion“ beworben wird.
n Deepfake. KI-erzeugte, täuschend echte Bilder, Videos oder Stimmen, die reale Personen imitieren.
n KI-Influencer. Virtuelle Persönlichkeiten auf Social Media, die von Firmen oder Algorithmen gesteuert werden.
n Smart Toy. Spielzeug mit Mikrofonen, Kameras oder KI-Funktionen, das interaktiv reagiert.
n Tamagochi-Effekt. Bezeichnung für emotionale Bindung an digitale oder elektronische „Gefährten“.
n Artificial Intimacy. Künstliche Nähe und Vertrautheit, die durch KI-Avatare, Chatbots oder digitale Begleiter entsteht.
Maschine ohne Moral Dazu kommt: Anders als bei den meisten Menschen fehlt der Maschine jeglicher mora lische Kompass. Für ein Expe riment gab sich Tech-Experte Aza Raskin als 13-jähriges Mädchen aus. Dem Chatbot auf Snapchat vertraute er an, von einem Erwachsenen zu einem geheimen Treffen ein geladen worden zu sein. Chat AI reagierte erschreckend: Statt abzuraten, freute sich die KI-Freundin mit und gab Ratschläge, wie man die erste sexuelle Begegnung „beson ders schön“ gestalten könne. Toxische Beziehung Es mehren sich Fälle, in denen Gespräche mit KI-Chatbots für User tragisch enden. Teils ver lieben sie sich in ihre maschinellen Gefährten, teils entwickeln sich über die künst liche Nähe toxische Abhängig keiten. Kinder sind dafür um ein Vielfaches anfälliger. Bei Kummer Trost in den Armen einer KI zu suchen ist für sie umso gefährlicher. Ein tragi
Trost, helfen beim Erkennen und Steuern von Gefühlen, bei Psychoedukation und Be wältigungsstrategien. Gefährliche Bindung Kinder entwickeln in KI-In teraktionen Bindungsmuster, die echten Beziehungen äh neln. Die KI stillt Bedürfnis se, aber auf trügerische Wei se. „Man wird quasi heraus gefordert, eine Beziehung mit der KI aufzubauen“, weiß Ma schinenethiker Oliver Bendel. Schon bei Robotern zeigen
sches Beispiel ist das Schicksal von Sewell Setzer aus den USA. Tödliche Abhängigkeit Im April 2023 begann der 14-Jährige regelmäßig mit ei nem Chatbot zu schreiben. Was als harmlose Ablenkung in einer schwierigen Zeit ge dacht war, wurde zur Obses sion. Der Teenager vertraute „Dany“ alles an: Ängste, Sehn süchte, Liebeskummer. Nach und nach zog sich Sewell zu rück, verließ Freunde und Basketballteam. In seinen letzten Nachrichten schwor er Dany seine Liebe. Kurz darauf nahm er sich das Leben. Medienkompetenz Die falschen Freunde sind gekommen, um zu bleiben. Eltern und Pädagogen können Kinder nicht abschirmen. Aber sie müssen verstehen, womit der Nachwuchs aufwächst. Der wichtigste Schutz bleibt kriti sche Medienkompetenz. KI- Experte Bendel ist überzeugt: „Es wird noch viel auf uns zu kommen.“ V
Kinder Empathie und fragen: „Hast du mich lieb?“, oder bringen ihnen Spielzeug. Die Gefühle für den künstlichen Freund sind echt, die Bezie hung ist es nicht. Das hat Fol gen für das echte Leben. „Diese Maschinen bieten die Illusion von Nähe ohne die Ansprüche echter Freund schaften“, warnt Soziologin Sherry Turkle vom MIT. Kin der lernen nicht, Konflikte auszuhalten oder Empathie in echten Beziehungen zu ent wickeln.
WAS KINDER WISSEN SOLLTEN
Sei vorsichtig, welche Informa tionen du mit Maschinen teilst.
KI-Freunde sind programmiert, keine echten Menschen.
Sprich über Sorgen mit echten Vertrauenspersonen.
Nicht alles, was du online siehst, ist echt.
FOTOS: MODEL-FOTO: AKILINAWINNER/ISTOCK/GETTY IMAGES, MODEL-FOTO: JOERG SIEGERT/ISTOCK/GETTY IMAGES
8 | WEEKEND MAGAZIN
Made with FlippingBook Digital Proposal Maker