Weekend Magazin Steiermark 2025 KW37

STORYS

BEGRIFFE ERKLÄRT

n Avatar. Virtuelles Abbild oder Figur, die stellvertretend für eine Person oder KI in digitalen Welten agiert.

n Chatbot. Programm, das per Text oder Sprache kommuniziert, wirkt durch KI besonders „menschlich“.

n Replika. Täuschend echter KI-Chatbot, der als „Freund“, „Begleiter“ oder „AI Companion“ beworben wird.

n Deepfake. KI-erzeugte, täuschend echte Bilder, Videos oder Stimmen, die reale Personen imitieren.

n KI-Influencer. Virtuelle Persönlichkeiten auf Social Media, die von Firmen oder Algorithmen gesteuert werden.

n Smart Toy. Spielzeug mit Mikrofonen, Kameras oder KI-Funktionen, das interaktiv reagiert.

n Tamagochi-Effekt. Bezeichnung für emotionale Bindung an digitale oder elektronische „Gefährten“.

n Artificial Intimacy. Künstliche Nähe und Vertrautheit, die durch KI-Avatare, Chatbots oder digitale Begleiter entsteht.

bringen ihnen Spielzeug. Die Gefühle für den künstlichen Freund sind echt, die Bezie hung ist es nicht. Das hat Fol gen für das echte Leben. „Die se Maschinen bieten die Illu sion von Nähe ohne die An sprüche echter Freundschaf ten“, warnt Soziologin Sherry Turkle vom MIT. Kinder ler nen nicht, Konflikte auszuhal ten oder Empathie in echten Beziehungen zu entwickeln. Maschine ohne Moral Dazu kommt: Anders als bei den meisten Menschen fehlt

Schicksal von Sewell Setzer aus den USA. Tödliche Abhängigkeit Im April 2023 begann der 14-Jährige regelmäßig mit ei nem Chatbot zu schreiben. Was als harmlose Ablenkung in einer schwierigen Zeit ge dacht war, wurde zur Obses sion. Der Teenager vertraute „Dany“ alles an: Ängste, Sehn süchte, Liebeskummer. Nach und nach zog sich Sewell zu rück, verließ Freunde und Basketballteam. In seinen letz ten Nachrichten schwor er Dany seine Liebe. Kurz darauf nahm er sich das Leben. Medienkompetenz Die falschen Freunde sind gekommen, um zu bleiben. Eltern und Pädagogen können Kinder nicht abschirmen. Aber sie müssen verstehen, womit der Nachwuchs auf wächst. Der wichtigste Schutz bleibt kritische Medienkom petenz. KI-Experte Bendel ist überzeugt: „Es wird noch viel auf uns zukommen.“ V

von Gefühlen, bei Psychoedu kation und Bewältigungsstra tegien. Gefährliche Bindung Kinder entwickeln in KI-In teraktionen Bindungsmuster, die echten Beziehungen äh neln. Die KI stillt Bedürfnisse, aber auf trügerische Weise. „Man wird quasi herausgefor dert, eine Beziehung mit der KI aufzubauen“, weiß Maschi nenethiker Oliver Bendel. Schon bei Robotern zeigen Kinder Empathie und fragen: „Hast du mich lieb?“, oder

der Maschine jeglicher mora lische Kompass. Für ein Ex periment gab sich Tech-Ex perte Aza Raskin als 13-jähri ges Mädchen aus. Dem Chat bot auf Snapchat vertraute er an, von einem Erwachsenen zu einem geheimen Treffen eingeladen worden zu sein. Chat AI reagierte erschre ckend: Statt abzuraten, freute sich die KI-Freundin mit und gab Ratschläge, wie man die erste sexuelle Begegnung „be sonders schön“ gestalten könne. Toxische Beziehung Es mehren sich Fälle, in de nen Gespräche mit KI-Chat bots für User tragisch enden. Teils verlieben sie sich in ihre maschinellen Gefährten, teils entwickeln sich über die künstliche Nähe toxische Abhängigkeiten. Kinder sind dafür um ein Vielfa ches anfälliger. Bei Kum mer Trost in den Armen einer KI zu suchen ist für sie umso gefährlicher. Ein tragisches Beispiel ist das

WAS KINDER WISSEN SOLLTEN

Sei vorsichtig, welche Informa tionen du mit Maschinen teilst.

KI-Freunde sind programmiert, keine echten Menschen.

Sprich über Sorgen mit echten Vertrauenspersonen.

Nicht alles, was du online siehst, ist echt.

FOTOS: MODEL-FOTO: AKILINAWINNER/ISTOCK/GETTY IMAGES, MODEL-FOTO: JOERG SIEGERT/ISTOCK/GETTY IMAGES

6 | WEEKEND MAGAZIN

Made with FlippingBook - Online Brochure Maker