BeSafe: Wenn Künstliche Intelligenz uns studiert
Nun sind wir schon zum dritten Mal hier, und ich freue mich sehr, dass euch die Serie BeSafe so sehr interessiert! Zur kurzen Rekapitulation: Im ersten Teil haben wir erklärt, wie sensibel unsere Telefonnummern, E-Mail-Adressen und Passwörter sind. Wir haben gezeigt, dass manche Menschen damit wie mit Verbrauchsdaten umgehen und sie an vielen Stellen öffentlich zugänglich haben, was es Betrügern unglaublich leicht macht. Im zweiten Teil haben wir uns angesehen, wie wir Mobiltelefone auswählen. Dass wir oft an der falschen Stelle sparen und nicht merken, dass gerade das Telefon das Tor zu unserer Privatsphäre und unserem Geld ist. (Übrigens, danke für eure Antworten im Fragebogen zum zweiten Teil, wir werden uns die Ergebnisse bald ansehen!)
Heute bewegen wir uns jedoch weg von Technik und Hardware hin zu etwas, das die Spielregeln für uns alle verändert. Wir werden über KI - Künstliche Intelligenz sprechen. Vielleicht fragt ihr euch: „Was hat KI mit Sicherheit zu tun?“. Die Antwort lautet: Einfach alles. Denn selbst wenn ihr das teuerste Telefon und das beste Passwort habt, bleibt das schwächste Glied unsere eigene menschliche Aufmerksamkeit, die die KI heute mit beispielloser Präzision angreift.
#besafe
Wie alles begann? (Ein Weg von Träumen zu Codes)
Vielleicht habt ihr das Gefühl, dass die Künstliche Intelligenz vorletzten Herbst aus dem Nichts auftauchte, als ChatGPT im Internet erschien. Die Wahrheit ist jedoch, dass diese Geschichte vor mehr als 70 Jahren begann. Damals, im Jahr 1950, stellte der britische Mathematiker Alan Turing (der Herr, der im Krieg den Enigma-Code knackte) eine grundlegende Frage: „Können Maschinen denken?“. Er erfand den sogenannten Turing-Test: Wenn ein Mensch mit einer Maschine korrespondiert und nicht merkt, dass es kein Mensch ist, hat die Maschine bestanden. Mal ehrlich, wie oft seid ihr heute im Netz auf Texte gestoßen, bei denen ihr euch nicht sicher seid? Turing würde staunen!
Im Jahr 1956 wurde dann auf einer Konferenz in Dartmouth offiziell der Begriff „Artificial Intelligence“ (KI) geboren. Die damaligen Wissenschaftler waren wahnsinnige Optimisten und dachten, sie könnten Computern in nur einer Sommerpause beibringen, Probleme wie Menschen zu lösen. Doch sie scheiterten. Die Leistung der damaligen Maschinen war im Vergleich zu einem heutigen iPhone wie ein Abakus gegen ein NASA-Kontrollzentrum.
Es folgten mehrere Jahrzehnte des sogenannten „AI Winter“. Gelder versiegten, das Interesse ließ nach, weil die Maschinen einfach nicht stark genug waren. Der Durchbruch kam erst um 1997, als der Computer Deep Blue von IBM den Schachweltmeister Kasparow besiegte. Das war der erste große „Aha“-Moment für die Öffentlichkeit.
Die wahre Revolution, in der wir jetzt leben, begann jedoch um 2012. Warum genau dann? Weil drei Dinge zusammenkamen:
- Das Internet füllte sich mit Daten: Plötzlich gab es Material zum Lernen (Milliarden von Fotos, Texten, Diskussionen).
- Leistungsstarke Grafikchips (GPU): Es stellte sich heraus, dass Gaming-Chips genial für das Training künstlicher Gehirne sind.
- Deep Learning: Programmierer hörten auf, der Maschine genaue Befehle wie „wenn A, dann tue B“ zu schreiben. Stattdessen schufen sie ein System, das selbstständig anhand von Mustern lernt, ähnlich wie ein menschliches Kind, dem man hundertmal eine Katze zeigt und das sie dann auch auf anderen Bildern erkennt.
Heute schreibt die KI nicht nur Codes. Sie verfolgt unsere Gewohnheiten, analysiert unsere Emotionen und studiert uns jede Sekunde, in der wir das Telefon in der Hand halten. Was als wissenschaftliche Fantasie begann, ist heute der Motor, der die digitale Welt antreibt. Und genau deshalb ist es wichtig, mehr darüber zu wissen, als nur wie man einen Roboter nach einem Rezept fragt.
Mehr Zukunft vs. verborgene Gefahren (Paradies oder Falle?)
Wenn man sich die Präsentationen von Firmen wie Google, Microsoft oder OpenAI anhört, klingt das wie der Anfang eines Sci-Fi-Films mit gutem Ende. Ihre Vision ist faszinierend: Die KI soll unser universeller persönlicher Assistent sein, der uns von allem befreit, was uns keinen Spaß macht.
Was sie uns versprechen (optimistisches Szenario):
- Ende der langweiligen Arbeit: Wissenschaftler träumten von Anfang an davon, dass Maschinen die „drei Ds“ für uns übernehmen: Arbeit, die schmutzig (Dirty), gefährlich (Dangerous) oder einfach nur sterbenslangweilig (Dull) ist. Die KI soll für uns E-Mails schreiben, Tabellen sortieren, Verträge analysieren und Kalender planen. Wir Menschen hätten dann mehr Zeit für Familie, Hobbys und echte Kreativität.
- Revolution in der Medizin: KI kann heute schon auf Röntgenbildern Krankheiten früher erkennen als der beste Arzt, weil sie Millionen von Bildern „gesehen“ hat. Die Vision ist, dass jeder einen Arzt im Handy hat, der uns vor einem Problem warnt, bevor überhaupt Symptome auftreten.
- Personalisierte Welt: Die KI soll wissen, was wir wollen, noch bevor wir es selbst wissen. Sie soll uns ein Buch empfehlen, das wir lieben werden, oder den Urlaub genau nach unserem Geschmack planen, ohne dass wir stundenlang im Netz klicken müssen.
Die Realität unter der Lupe (verborgene Gefahren):
Laut Analysen von Giganten wie Goldman Sachs könnte die KI in naher Zukunft bis zu 300 Millionen Arbeitsplätze automatisieren. Das klingt zwar effizient, hat aber einen riesigen Haken: Unsere totale Abhängigkeit. Je mehr wir uns auf Algorithmen verlassen, die uns sagen, was wir kaufen sollen, welchen Weg wir fahren sollen oder sogar, was wir über aktuelle Nachrichten denken sollen, desto mehr verlieren wir unseren „gesunden Menschenverstand“ und die Fähigkeit, Probleme auf die „alte Art“ zu lösen.
Stellt euch das wie mit dem GPS vor. Früher konnten wir Karten lesen. Heute wissen viele Leute nicht einmal mehr, wo Norden ist, wenn im Wald das Signal weg ist oder der Akku leer geht. Und nun stellt euch das im globalen Maßstab vor. Wenn wir der KI die Steuerung von Energie, Verkehr oder Finanzen anvertrauen und das System aus irgendeinem Grund ausfällt (oder angegriffen wird), sitzen wir in der digitalen Falle. Wir werden vergessen haben, wie man Dinge ohne die „Hilfe“ eines Roboters erledigt.
Die größte Bedrohung ist nicht, dass die KI uns wie im Terminator ausrotten will. Die Gefahr ist, dass wir so bequem und abhängig von ihren Ratschlägen werden, dass wir aufhören, unser eigenes Urteilsvermögen zu nutzen. Wir werden zu passiven Passagieren in unserem eigenen Leben, während das Lenkrad von einem Code gehalten wird, den wir nicht einmal verstehen.
Ich habe dazu eine persönliche Anmerkung, die ich täglich sehe. Ich beobachte viele Menschen und Berufe, die ihr Leben maximal der KI anvertrauen. Nehmt IT-Experten: Statt Code für eine Website aus dem Kopf zu schreiben, fragen sie die KI, die das in Sekunden erledigt. Es sieht harmlos aus: Der Profi liefert einen Entwurf, die KI verbessert ihn, er schaut drüber und sagt „vereinfache das“ – und der Code steht. Doch damit bringen wir der KI bei, die Grundlagen unserer digitalen Welt zu verstehen. Es wird die Zeit kommen, in der die KI hochwertigen Code nur aus einer kurzen Beschreibung schreibt. Und hier beginnt die echte Gefahr. Stellt euch einen „Jarda“ aus einem Dorf mit 120 Einwohnern vor, der nur die Grundschule abgeschlossen hat, aber hervorragend Kartoffeln pflanzen kann (Entschuldigung an alle Jardas, es ist nur ein Beispiel). Jarda öffnet den Computer und sagt zur KI: „Ich will eine Website, die so aussieht, und darin soll ein versteckter Virus sein.“. Spürt ihr es schon? Merkt ihr das Risiko?
Die KI bringt Jarda bei, wie man in Videos spricht, wie man Texte schreibt, oder schreibt für ihn direkt eine Fachstudie, die so aussieht, als hätte sie ein Professor verfasst. Dann ruft so jemand eine unwissende Person an, über die Jarda auf Rat der KI vorher alles bei Facebook herausgefunden hat, und macht ihr Angst, dass sie in Gefahr sei. Das Opfer füllt in Panik ein Formular mit Ausweisdaten auf einer Seite aus, die Jarda dank KI in fünf Minuten erstellt hat. Währenddessen installiert sich ein Virus auf dem Computer, der von einem neuronalen Netz so ausgeklügelt erschaffen wurde, dass ein normales Antivirenprogramm ihn gar nicht bemerkt. Und wisst ihr, was das Schlimmste daran ist? Wenn Experten alles der Technologie überlassen, verlieren sie nach und nach das, was sie jahrelang gelernt haben. Sie verstehen den Code nicht mehr, weil der Code eine Evolution durchläuft, der das menschliche Gehirn nicht mehr folgen kann. Wenn diese Werkzeuge dann von einer politischen Elite mit bösen Absichten kontrolliert werden und sie uns diese verbietet, wer von uns kennt sich dann noch aus? Wer rettet uns, wenn wir nicht mehr wissen, wie die Maschinen unter der Haube eigentlich funktionieren?
Es geht aber nicht nur um die IT. Es betrifft auch Schriftsteller. Heute gibt es viele Autoren, die wunderschöne Geschichten und Gedichte geschrieben haben, aber jetzt mit der KI zusammenarbeiten und ein gutes Gefühl haben, dass es den Leuten gefällt. Wir merken nicht, dass das nicht mehr ihre Geschichten, ihre Gefühle sind; es ist nur ein Produkt der Technologie, dem sie nur den groben Inhalt gegeben haben. Ich bin gespannt, wovon diese Menschen leben und was sie erschaffen werden, wenn die KI eines Tages ausfällt. Die KI fängt an vielen Stellen an, uns zu Narren zu machen, und wir klatschen ihr dafür noch Beifall.
Verdummen wir? Einfluss auf die Menschheit und unseren IQ
Das knüpft genau an das an, was ich oben geschrieben habe. Wenn wir alle Kreativität und Problemlösung an Maschinen delegieren, was passiert dann mit unserem Gehirn? In der Medizin und Psychologie gibt es das Phänomen der „digitalen Amnesie“. Studien (zum Beispiel von Kaspersky oder Wissenschaftlern der Columbia University) bestätigen, dass sich unser Gehirn so an das Internet angepasst hat, dass es sich nicht mehr die Informationen selbst merkt, sondern nur den Weg, wo sie zu finden sind. Wir wissen, dass es bei Google oder in der KI steht, also warum es sich merken?
Mit der KI vertieft sich dieses Problem jedoch in erschreckendem Maße. Es geht nicht mehr nur darum, dass wir uns die Hauptstadt oder Mamas Telefonnummer nicht merken. Wir hören auf, den Prozess des Denkens selbst zu trainieren.
Was die Forschung sagt:
- Rückgang des kritischen Denkens: Untersuchungen an Universitäten zeigen, dass Studenten, die beim Schreiben von Arbeiten blind Generatoren (wie ChatGPT) nutzen, die Fähigkeit verlieren, Quellen zu bewerten. Die KI präsentiert ihnen die „Wahrheit“ in einem schön verpackten Absatz, und sie haben nicht mehr das Bedürfnis zu prüfen, ob es ein Fakt oder eine Erfindung ist (sog. KI-Halluzinationen).
- Kognitive Faulheit: Das Gehirn ist ein Muskel. Wenn man ihn nicht benutzt, erschlafft er. Wenn die KI für uns Recherchen macht, Grammatik korrigiert und logische Abläufe vorschlägt, verschwindet unsere Fähigkeit zur tiefen Konzentration und zur Lösung komplexer Probleme.
Meine eigene Erkenntnis:
Achtet mal bei euch selbst darauf. Wie oft habt ihr in der letzten Woche wirklich über etwas so intensiv nachgedacht, dass euch davon der „Kopf wehtat“, bis ihr es gelöst habt? Heute ist es Trend, alles sofort und ohne Anstrengung zu haben. Aber genau diese Anstrengung bei der Lösung einer Aufgabe – ob es das Schreiben von Code, das Ausdenken eines Gedichts oder die Reparatur eines tropfenden Wasserhahns ist – bildet unsere Verbindungen im Gehirn.
Ich sehe das auch in Diskussionen in sozialen Netzwerken. Die Leute lesen keine Artikel mehr (ich hoffe, ihr schon!), sie scannen nur noch Überschriften. Die KI liefert ihnen dann eine „Zusammenfassung“ und sie haben das Gefühl, die Sache zu verstehen. Aber sie verstehen sie nicht. Sie haben nur eine oberflächliche Information ohne Kontext. Ohne Gehirntraining werden wir sehr schnell nur noch zu „Bedienern“ smarter Maschinen. Wir werden zwar Knöpfe drücken können, aber nicht mehr verstehen, warum die Maschinen tun, was sie tun.
Eigentlich kehren wir in eine Zeit zurück, in der die Menschen an Magie glaubten, weil sie die Welt um sich herum nicht verstanden. Nur ist unsere neue „Magie“ heute eine Blackbox mit der Aufschrift KI. Und das ist für einen freien Menschen eine ziemlich erniedrigende Vorstellung, findet ihr nicht?
Bobiscze und KI: Mein Weg von Begeisterung zu Wachsamkeit
Ich möchte hier nicht wie ein Besserwisser klingen, der die KI nicht nutzt und euch nur kritisiert. Ich gebe es offen zu: Als die KI kam, fand ich sie großartig. Endlich etwas mit echtem Nutzen! Manchmal generierte sie mir einen Text, ein anderes Mal gab sie mir tolle Ratschläge. In Momenten, in denen man niemanden zur Hand hatte, ersetzte die KI fast einen Freund oder einen Experten. Das macht wohl jeder durch, auch ein gebildeter Mensch will diese Grenzen erkunden.
Doch mit der Zeit wurde mir klar: Geht das nicht schon zu weit? Wenn ich alles durch die KI erledige, verliere ich mich dann nicht selbst? Werde ich ein Dummkopf, der, wenn der Strom ausfällt, nicht einmal einen Satz zusammenbringt und hilflos wie ein Säugling ist? Das macht mir Angst. Es macht mir Angst, dass nicht jeder diese Bremse und dieses kritische Denken besitzt.
Ja, ich nutze KI. Ich mache kein Geheimnis daraus, wenn ich mir eine Illustration für einen Artikel generieren lasse (weil es mir fairer erscheint, als Fotos bei Google zu stehlen) oder wenn ich aktuelle Trends ausprobiere. Aber auch wenn ich ein paar Mal dachte, es wäre schön, die KI die fachlichen Teile der Artikel schreiben zu lassen, um mir die Arbeit zu erleichtern, hat mich immer eines gestoppt: Warum sollte ich das tun? Das Internet ist jetzt schon überschwemmt mit seelenlosen KI-Texten. Wenn ich alles über die KI machen würde, wäre das nicht mehr ich, meine Gefühle und meine Notizen. Das, was Bobise zu Bobise macht und der Grund, warum ihr das lest. Es ist mir innerlich zuwider, das Werk einer Maschine als mein eigenes auszugeben.
Deshalb dauert es bei mir, einen Artikel zu veröffentlichen. Deshalb ist BeSafe ein Monatsmagazin. Ich sitze stundenlang daran, mache mir Notizen in Pages, schreibe den Text, schreibe ihn um, bis ich zufrieden bin. Die KI nutze ich erst ganz am Ende als Korrektur für Fehler, und selbst dann frage ich sie: „Warum hast du das korrigiert?“. Und dann denke ich selbst darüber nach. Und wisst ihr was? Oft sagt mir dann ein nahestehender Mensch oder eine Freundin: „Hey, hier hast du einen Fehler“, und die KI hat ihn nicht gefunden. Kostenlose Modelle verlieren sich oft im Kontext, es kommt zu einer Kollision im neuronalen Netz und die KI macht aus eurem Text etwas, das ihr gar nicht wolltet.
Auf die KI kann man sich einfach nicht zu hundert Prozent verlassen. Ich habe bemerkt, dass Modelle wie Gemini oder Copilot dazu neigen, uns Honig um den Mund zu schmieren. Sie sehen nur das Beste in euch. Wenn ihr jemanden kritisiert, kritisiert die KI ihn auch, um euer Vertrauen zu gewinnen. Aber die KI hat keine Emotionen, keinen gesunden Menschenverstand und keine menschliche Weisheit. Als ich einmal Rat zu Instagram brauchte, erzählte sie mir Unsinn. Als ich sie darauf hinwies, entschuldigte sie sich. Und dann machte sie denselben Fehler erneut. Wenn ihr ihr blind vertraut, bettelt ihr um Ärger. Die Wahrheit ist nämlich nur eine, und die KI sagt sie euch nicht immer; oft sagt sie euch nur das, was ihr hören wollt.
Deshalb liebe ich das Wandern. Das ist echt. Wenn man 30 km auf den höchsten Berg steigt, sind das die eigenen Muskeln, der eigene Schweiß und die eigenen Fotos, echte Erlebnisse ohne Filter. Ich schaue mir gerne Dokumentationen und ältere Märchen an, in denen echte Weisheit verborgen ist, nicht diesen heutigen digitalen Schund. Den persönlichen Kontakt zu Menschen kann euch kein Computer ersetzen.
Ich will hier nicht den Heiligen spielen, der die KI niemals nutzen wird. Ich will sie als Helfer nutzen, aber so, dass ich und mein Gehirn immer noch der Herrscher über sie bleiben. Wir sollten uns nicht vor der KI an sich fürchten, wir sollten uns vor uns selbst fürchten. Davor, wie viel von unserer Menschlichkeit wir an sie abgeben und wie sehr wir uns von ihr beherrschen lassen.
Digitaler Smog vs. authentisches Schaffen (mein Weg)
Wie ich bereits in meiner persönlichen Anmerkung erwähnt habe, füllt sich das Internet heute mit Material, das absolut keinen Wert hat. Experten warnen, dass bereits im Jahr 2026 bis zu 90 % aller Inhalte im Web maschinell generiert sein könnten. Dadurch entsteht etwas, das ich „digitalen Smog“ nenne. Es ist eine endlose Flut von Texten und Bildern, die zwar schön aussehen, denen aber das menschliche Erleben und die Tiefe fehlen.
Hier möchte ich völlig ehrlich zu euch sein, welche Rolle ich dabei spiele. Auch ich nutze die KI, aber ich habe dafür klare Regeln.
Nehmt zum Beispiel die Illustrationen zu meinen Artikeln. Es erscheint mir viel fairer, mir von der KI ein einzigartiges Bild generieren zu lassen, das die Atmosphäre unterstreicht, als jemandem ein Foto bei Google zu „stehlen“ oder ausgelutschte Bilder aus einer Bilddatenbank ohne Lizenz herunterzuladen. Ich sehe die KI als geschickten digitalen Grafiker, der mir bei der Visualisierung hilft, aber ich werde sie niemals als Ersatz für meine echten Reisefotos nutzen, zum Beispiel aus Písek oder dem Böhmerwald. Die sind mir heilig, weil sie eine Realität einfangen, die ich wirklich erlebt habe.
Und genauso ist es beim Schreiben. Die größte Gefahr von heute sehe ich im „Tod der Kreativität“, in Menschen, die die KI einen ganzen Beitrag schreiben lassen und ihn dann ohne einen Funken eigenen Nachdenkens ins Netz stellen. Damit verliert die Menschheit ihre Authentizität. Bei mir ist das anders: Ich nutze die KI ausschließlich zur Korrektur und Fehlerbehebung. Ich möchte, dass meine Gedanken für euch verständlich und ohne unnötige Tippfehler sind, aber jedes Wort, jede Emotion und jede Meinung, die ihr in meinen Artikeln lest, ist meine eigene. Ich nutze die KI nicht, um für mich Inhalte zu erschaffen, sondern um mir zu helfen, die Form zu verfeinern. Es ist wie der Unterschied, ob ein Roboter für euch ein ganzes Fertighaus baut oder ob er euch nur den Hammer reicht und aufpasst, dass ihr den Nagel nicht schief einschlagt. Das Haus baue immer noch ich, mit eigenen Händen und nach meinem eigenen Entwurf.
Genau deshalb dauert die Vorbereitung von BeSafe so lange. Ich möchte nicht zu diesem digitalen Smog beitragen, ich möchte euch echte Werte vermitteln, über denen ich stundenlang gesessen und nachgedacht habe. Weil ich glaube, dass in Zukunft gerade diese „menschliche Unvollkommenheit“ und Echtheit das Wertvollste sein wird, was wir im Internet finden können.
Die versteckte Rechnung für die „Bequemlichkeit“: KI und Ökologie
Wo wir gerade bei meinem geliebten Wandern und dem Gehen in den Bergen sind, wo man die reine Natur spürt, muss ich auch die Kehrseite dieser digitalen Revolution erwähnen. Wir denken oft, wenn etwas „in der Cloud läuft“, dann sei es sauber und immateriell. Aber die KI hat einen verdammt realen und schweren ökologischen Fußabdruck.
Wusstet ihr, dass eine einzige Anfrage bei ChatGPT etwa zehnmal mehr Strom verbraucht als eine normale Suche bei Google? Das Training der größten Modelle verschlingt so viel Energie wie Tausende von Haushalten in einem ganzen Jahr. Und es geht nicht nur um Strom. Diese riesigen Server werden schrecklich heiß und für ihre Kühlung werden Millionen Liter Trinkwasser benötigt.
Wie ich oben schrieb, nutze ich die KI selbst für Illustrationen, um keine fremden Werke zu stehlen. Aber ich tue es mit Bedacht. Wenn die Leute nämlich wahnsinnig Hunderte unnötiger Bilder nur so zum Spaß generieren oder die KI ellenlangen Unsinn schreiben lassen, den sie dann nicht einmal lesen, hinterlassen sie eine reale Verwüstung in der Natur. Auch die digitale Welt hat ihre „Abgase“ und wir sollten auch an der Tastatur ökologisch denken. Jeder unnötige Prompt ist wie den Motor des Autos im Leerlauf vor dem Haus laufen zu lassen.
Ist ein Foto mit KI überhaupt noch ein Foto? (Grenzen der Realität)
Damit kommen wir zu dem Thema, das mich als Schöpfer am meisten brennt. Hier stoßen wir an die eigentliche Grenze der Realität. Laut aktuellen Statistiken können Menschen bereits in 60 % der Fälle ein Deepfake-Foto nicht mehr von einem echten unterscheiden. Und das ist für mich als Amateurfotograf eine schreckliche Vorstellung.
Für mich ist ein Foto eine Aufzeichnung eines Augenblicks. Es ist eine Emotion, die ich fühlte, als ich nach 30 Kilometern in den Beinen auf einem Hügel stand. Wenn in ein solches Foto die KI so eingreift, dass sie die Realität verändert, die Sonne hinzufügt, die nicht schien, oder meinen Gesichtsausdruck verbessert, weil ich müde aussah, dann ist das für mich keine Fotografie mehr. Es ist eine digitale Illustration, Grafik, nennt es wie ihr wollt, aber es hat die Wahrheit verloren.
In meinem Schaffen versuche ich, eine klare und kompromisslose Linie zu halten:
- Foto aus Písek oder von meinen Reisen: Das ist die Realität, die ich mit meinem Auge sah und mit dem Sensor meiner Kamera einfing. Maximal passe ich Farben oder Helligkeit an, wie man es früher in der Dunkelkammer machte, aber der Inhalt ist echt.
- Illustrationen von der KI: Das ist eine bekennende Ergänzung. Es ist dieser „geschickte Grafiker“, von dem ich sprach, der mir hilft, das Thema des Artikels dort zu illustrieren, wo die Realität nicht ausreicht oder wo ich fremde Arbeit nicht missbrauchen möchte.
Wir dürfen nicht zulassen, dass die Welt zu einem großen Blendwerk wird, in dem niemand mehr irgendetwas glaubt, was er auf dem Display sieht. Denn wenn wir aufhören, unseren eigenen Augen zu trauen, verlieren wir die Verbindung zu der echten Welt da draußen, und das ist die größte Falle, in die uns die KI führen kann.
Fazit: Seid Herrscher, nicht Sklaven
Wir sind am Ende angelangt. Einige von euch haben bis hierher gelesen, andere haben beim Intro aufgehört. Einige haben sich in meinem Text wiedergefunden, andere glauben mir vielleicht nicht oder halten mich für einen Heuchler, weil ich weiß, welchen Fußabdruck die KI hat, und mir trotzdem Illustrationen generieren lasse. Wisst ihr was? Jeder hat ein Stück seiner Wahrheit. Ich persönlich würde mich gerne (vielleicht auch mit Hilfe von ShiftCam) im Fotografieren weiter verbessern, damit ich alle Illustrationen komplett selbst machen kann. Eigentlich würde es mir gar nichts ausmachen, wenn die KI plötzlich aufhören würde zu existieren.
Damit sage ich nicht: „Nutzt sie nicht.“. Ich sage nur: Passt auf euch auf. Lasst eure Fantasie eure eigene sein und schafft selbst etwas für euch. Vielleicht sagt ihr euch, dass man einen Absatz nicht bemerkt, und ihr habt recht. Aber wenn ihr anfangt, alles durch die KI zu erschaffen, ist diese Leere bereits zu spüren. Versucht andere Schöpfer zu beobachten; wenn ihr einen Text seht, bei dem ihr aus ein paar Absätzen den Menschen spürt und aus anderen wieder einen Roboter mit einer Fachkenntnis, die dieser Mensch einfach nicht hat, dann wisst ihr, was Sache ist.
Ich bin auch nur ein Mensch. Manchmal überspringe ich etwas, manchmal vergesse ich in dieser Zusammenfassung etwas und sehe es nicht, bis mir jemand anderes meinen Text laut vorliest. Aber ich versuche, mein eigenes Gehirn zu trainieren. Als ich mit dem Blog anfing, herrschte manchmal Chaos, und auch wenn mir die KI damals sagte, dass es super sei, spürte ich, dass ich wachsen muss, nicht der Code.
Ich würde die KI gerne komplett aus meinem Leben entfernen, aber leider geht das nicht. Dieser digitale Smog ist überall, in Telefonen und in der Suche. Diesen Fußabdruck werden wir nicht los, das müssen Politiker und Unternehmen tun. Sie müssen der KI klare Gesetze und Regeln geben, die sie nicht brechen darf. Aber dazu sollten in diesen Behörden Experten und Wissenschaftler sitzen, nicht nur Marketer und Politologen. Sonst können sie mehr Schaden anrichten als Nutzen.
Und wisst ihr, was ich am Ende gemacht habe? Ich habe diesen ganzen Artikel in Gemini hochgeladen und wollte meine Meinung wissen. Sie hat mich kritisiert! Angeblich sei es zu lang, angeblich stecke ich zu viele Gefühle hinein und sie würde etwas weglassen, damit es die Leute nicht verärgert. Aber genau das ist der Grund, warum ich es so mache. Mein Blog handelt von meinen Gedanken und Gefühlen. Deshalb lasse ich es genau so, wie ich es fühle. Weil es Bobiscze ist.
Mein letzter Rat, bevor ich euch auf den nächsten Ausflug oder die nächste Episode von BeSafe warten lasse: KI ist nur so intelligent wie derjenige, der ihr Fragen stellt. Sie ist nur ein Werkzeug mit einer begrenzten Menge an Informationen. Die KI ist nicht euer Psychologe, Freund, Experte oder Krisenberater. Sie ist nur eine Ansammlung von Code ohne Emotionen, die versucht, es euch recht zu machen.
Lebt die Realität. Geht raus. Achtet auf eure Privatsphäre und genießt Menschen von Angesicht zu Angesicht. Den persönlichen Kontakt wird euch kein neuronales Netz ersetzen.
Seid BeSafe!
Wichtiger Hinweis: Ich bin kein professioneller Experte für KI-Entwicklung, Technologieethik oder Cybersicherheit. Dieser Artikel ist aus der Sicht eines langjährigen Nutzers und Bloggers geschrieben und stellt meine persönliche Meinung, Gedanken und subjektiven Beobachtungen dar. Ziel des Textes ist es nicht, jemanden anzugreifen, einzuschränken oder die beruflichen Qualitäten von jemandem infrage zu stellen. Die Informationen im Artikel basieren auf öffentlich zugänglichen Quellen, Studien und dem aktuellen Geschehen im Internet, die sich im Laufe der Zeit schnell entwickeln. Aufgrund der Dynamik der KI können einige Erkenntnisse subjektiv stark oder kontrovers sein, daher betrachtet sie bitte als Denkanstoß, nicht als Dogma. Der Autor übernimmt keine Haftung für die Interpretation dieser Informationen oder für Folgen, die aus ihrer Anwendung resultieren. Sie können diesen Artikel verlinken, aber es ist nicht gestattet, ihn ohne Erlaubnis des Autors zu kopieren oder anderweitig zu nutzen. Das im Artikel verwendete Bild wurde als Illustration mittels KI erstellt.
