{"id":791,"date":"2025-06-27T11:40:03","date_gmt":"2025-06-27T09:40:03","guid":{"rendered":"https:\/\/home.g-lorenzen.de\/?p=791"},"modified":"2025-06-27T11:40:03","modified_gmt":"2025-06-27T09:40:03","slug":"ki-im-unternehmen-kosten-umwelt-einfuehrung","status":"publish","type":"post","link":"https:\/\/www.g-lorenzen.de\/index.php\/2025\/06\/27\/ki-im-unternehmen-kosten-umwelt-einfuehrung\/","title":{"rendered":"KI im Unternehmen: Kosten, Umwelt &amp; Einf\u00fchrung"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\">KI im Unternehmen: Ein umfassender Blick auf Kosten, Umweltauswirkungen und erfolgreiche Einf\u00fchrung<\/h3>\n\n\n\n<p>K\u00fcnstliche Intelligenz (KI) pr\u00e4gt zunehmend unseren Alltag und verspricht Unternehmen enorme Effizienzgewinne sowie Erleichterungen bei Routineaufgaben. Doch der Einsatz von KI-Modellen, insbesondere generativer KI, bringt nicht nur neue M\u00f6glichkeiten, sondern auch erhebliche Herausforderungen mit sich \u2013 von einem hohen Energieverbrauch \u00fcber schwer kalkulierbare Kosten bis hin zu komplexen Implementierungsanforderungen. Dieser Blogbeitrag beleuchtet die wichtigsten Aspekte, die Unternehmen bei der Nutzung von KI ber\u00fccksichtigen sollten.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h4 class=\"wp-block-heading\">Der energetische Fu\u00dfabdruck der KI: Mehr als nur Rechenleistung<\/h4>\n\n\n\n<p>KI verbraucht sehr viel Energie, sowohl beim iterativen Training von KI-Modellen mit riesigen Datenmengen und Millionen von Parametern als auch im laufenden Betrieb. Jede einzelne Abfrage an ein KI-Modell aktiviert Millionen von Parametern, was im Gegensatz zu einer einfachen Datenbankabfrage eine komplexe und nicht-lineare Operation darstellt, die schwer durch Caching zu optimieren ist.<\/p>\n\n\n\n<p><strong>Rechenzentren als Energieverbraucher:<\/strong> Die F\u00e4higkeiten gro\u00dfer Sprach- und multimodaler KI-Modelle erfordern eine enorme Rechenleistung. Gro\u00dfe Technologieunternehmen investieren massiv in die Infrastruktur von Rechenzentren, was den weltweiten Energiebedarf dieses Sektors stark ansteigen l\u00e4sst. Schon heute entfallen ein bis zwei Prozent des weltweiten Energieverbrauchs auf diesen Bereich, vergleichbar mit dem Verbrauch der gesamten Luftfahrtindustrie. Prognosen zufolge k\u00f6nnte die verst\u00e4rkte Nutzung von KI den Energiebedarf von Rechenzentren bis 2026 verdoppeln. Neben Strom ben\u00f6tigen Rechenzentren auch <strong>gro\u00dfe Mengen Wasser zur K\u00fchlung<\/strong> und <strong>Mineralien f\u00fcr die Hardwareherstellung<\/strong>, was die Ressourcen zus\u00e4tzlich belastet.<\/p>\n\n\n\n<p><strong>Herausforderungen bei der CO\u2082-Messung:<\/strong> F\u00fcr Anwender ist es oft schwierig nachzuvollziehen, wie viel CO\u2082 ihre KI-Nutzung verursacht. W\u00e4hrend Open-Source-Modelle lokale Messungen erm\u00f6glichen, schweigen sich die Anbieter propriet\u00e4rer Modelle meist \u00fcber Details zum Energiebedarf und zu Emissionsdaten aus. Emissionsberichte von Cloud-Anbietern sind zudem oft begrenzt, nicht detailliert genug f\u00fcr generative KI und k\u00f6nnen optimistisch ausfallen, da CO\u2082-Zertifikate oder andere Carbon-Offsetting-Methoden zum Einsatz kommen.<\/p>\n\n\n\n<p><strong>Werkzeuge zur Absch\u00e4tzung und Messung:<\/strong> Um den CO\u2082-Fu\u00dfabdruck besser einsch\u00e4tzen zu k\u00f6nnen, gibt es verschiedene Tools:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Green Algorithms<\/strong> von der Universit\u00e4t Cambridge sch\u00e4tzt den \u00f6kologischen Fu\u00dfabdruck von Softwareprojekten, indem es Rechenzeit, Energieverbrauch und den lokalen Strommix ber\u00fccksichtigt.<\/li>\n\n\n\n<li><strong>CarbonTracker<\/strong> der Universit\u00e4t Kopenhagen misst den Stromverbrauch rechenintensiver Prozesse wie dem KI-Training und sch\u00e4tzt die Emissionen.<\/li>\n\n\n\n<li><strong>CodeCarbon<\/strong> der Universit\u00e4t Montreal verfolgt einen \u00e4hnlichen Ansatz, misst den Energieverbrauch und sch\u00e4tzt Emissionen unter Ber\u00fccksichtigung des lokalen Energiemixes.<\/li>\n\n\n\n<li>F\u00fcr offene Modelle existieren Benchmarks wie der <strong>AI Energy Score<\/strong> von Salesforce und das <strong>LLM-Perf Leaderboard<\/strong> von Hugging Face.<\/li>\n\n\n\n<li>F\u00fcr propriet\u00e4re Modelle sch\u00e4tzen Tools wie <strong>EcoLogits<\/strong> der gemeinn\u00fctzigen Organisation GenAI Impact den \u00f6kologischen Fu\u00dfabdruck, indem sie nicht nur Betriebsemissionen, sondern auch Hardware-Herstellung und abiotischen Ressourcenverbrauch anteilig ber\u00fccksichtigen.<\/li>\n\n\n\n<li>Das <strong>Carbon Footprint Modeling Tool<\/strong> bietet ein flexibles Datenmodell zur transparenten Gegen\u00fcberstellung verschiedener Berechnungsmethoden und Anpassung von Faktoren wie dem Energiemix.<\/li>\n<\/ul>\n\n\n\n<p><strong>Frugal AI:<\/strong> Das Konzept der &#8222;Frugal AI&#8220; zielt darauf ab, KI-L\u00f6sungen nur dann einzusetzen, wenn keine weniger energieintensive Technologie das gleiche Ziel erreichen k\u00f6nnte, und die Umweltauswirkungen des Projekts von Anfang an zu minimieren. Dennoch liegt der entscheidende Hebel zur Reduzierung des Energieverbrauchs von KI bei den Anbietern durch Modellarchitektur, Rechenzentrumseffizienz und Energiemix.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h4 class=\"wp-block-heading\">Was der Einsatz gro\u00dfer Sprachmodelle im Unternehmen kostet<\/h4>\n\n\n\n<p>Die Implementierung von gro\u00dfen Sprachmodellen (LLMs) im Unternehmen erfordert eine sorgf\u00e4ltige Planung und birgt erhebliche Kosten, die sich schwer absch\u00e4tzen lassen. Insbesondere bei cloudbasierten Diensten erfolgt die Abrechnung oft pro verarbeitetem und generiertem &#8222;Token&#8220;.<\/p>\n\n\n\n<p><strong>Phasen eines LLM-Projekts:<\/strong> Jedes LLM-Projekt durchl\u00e4uft typischerweise f\u00fcnf Phasen:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Definition des Use Cases und der Anforderungen:<\/strong> Hoher Personalaufwand, oft mit externen Beratern.<\/li>\n\n\n\n<li><strong>Datenvorbereitung:<\/strong> Kann aufwendig sein, insbesondere wenn Daten in ein f\u00fcr Sprachmodelle verst\u00e4ndliches Format (Embeddings) \u00fcberf\u00fchrt werden m\u00fcssen.<\/li>\n\n\n\n<li><strong>Modellauswahl:<\/strong> Auswahl des passenden Modells basierend auf dem Anwendungsfall, Daten und Leaderboards. Die Modellgr\u00f6\u00dfe beeinflusst Hardwarebedarf und Kosten pro Token.<\/li>\n\n\n\n<li><strong>Feintuning und Embedding-Berechnung:<\/strong> Rechenintensive, aber einmalige Aufgabe, um Modelle an unternehmensspezifisches Vokabular anzupassen oder Dokumente durchsuchbar zu machen.<\/li>\n\n\n\n<li><strong>Laufender Modellbetrieb (Operations):<\/strong> Kontinuierlicher Aufwand und Kosten, abh\u00e4ngig von Abrechnungsmodell (Stunden f\u00fcr Server oder Token pro Anfrage).<\/li>\n<\/ol>\n\n\n\n<p><strong>Kosten in spezifischen Anwendungsf\u00e4llen:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Retrieval Augmented Generation (RAG):<\/strong>\n<ul class=\"wp-block-list\">\n<li><strong>Datenextraktion und Chunking:<\/strong> Erheblicher Rechenaufwand, da oft auch gro\u00dfe Sprachmodelle daf\u00fcr eingesetzt werden. Ein 100-seitiges PDF kann beispielsweise 40.000 Token umfassen.<\/li>\n\n\n\n<li><strong>Embedding-Berechnung:<\/strong> Der Prozess zur Erstellung der Embeddings aus den &#8222;gechunkten&#8220; Textdaten kann je nach Anzahl der Dokumente und Chunks aufwendig sein.<\/li>\n\n\n\n<li><strong>Laufender Betrieb:<\/strong> Jede Suche erfordert die Berechnung eines einzelnen Embedding-Vektors. Kleinere generative Modelle sind hier oft ausreichend und dienen prim\u00e4r als Formulierungshilfe. Die Kosten pro Anfrage k\u00f6nnen wenige Cent betragen.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>Agentensysteme:<\/strong>\n<ul class=\"wp-block-list\">\n<li>Hierbei erledigen mehrere Sprachmodelle komplexe Aufgaben im Dialog miteinander.<\/li>\n\n\n\n<li>Das <strong>Tokenvolumen<\/strong>, das die Interaktion der Agenten erzeugt, ist <strong>schwer absch\u00e4tzbar<\/strong>. Schon eine einfache Anfrage kann eine Kommunikationskaskade ausl\u00f6sen, die entweder GPUs stark belastet oder hohe Kosten durch Token-Abrechnung verursacht.<\/li>\n\n\n\n<li>Gleiche Anfragen k\u00f6nnen aufgrund der statistischen Natur der Textgenerierung zu unterschiedlichen und unterschiedlich langen Ergebnissen f\u00fchren, was die internen Verarbeitungskosten unkontrollierbar macht.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>Deep Research mit Reasoning-Modellen:<\/strong>\n<ul class=\"wp-block-list\">\n<li>Diese Modelle k\u00f6nnen Zahlen interpretieren, Strategien vorschlagen und neue Ideen entwickeln.<\/li>\n\n\n\n<li>Die Inferenz eines Reasoning-Modells ben\u00f6tigt immer eine GPU. Die Dauer des Prozesses und damit die GPU-Rechenzeit oder die Anzahl der erzeugten Token ist im Vorfeld <strong>oft nicht genau festlegbar<\/strong>.<\/li>\n\n\n\n<li>Manchmal k\u00f6nnen sich die Modelle in langen Schleifen verfangen, was zu sehr hohen Kosten f\u00fchrt, selbst wenn die generierte Antwort kurz ist.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n\n\n\n<p><strong>Fazit zu den Kosten:<\/strong> Die Kosten, insbesondere die variablen Betriebskosten, k\u00f6nnen sehr schwer im Vorfeld zu beziffern sein. Unternehmen m\u00fcssen messbare Ziele festlegen und diese kontinuierlich \u00fcberpr\u00fcfen, um sicherzustellen, dass die Effizienzgewinne den oft hohen Investitionen in KI-Projekte gerecht werden.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h4 class=\"wp-block-heading\">Die sichere Einf\u00fchrung von Microsoft 365 Copilot im Unternehmen<\/h4>\n\n\n\n<p>Die Einf\u00fchrung von Microsoft 365 Copilot ist mehr als nur die Aktivierung eines semantischen Indexes. Da der Copilot auf s\u00e4mtliche Inhalte einer Organisation zugreifen kann, ist es entscheidend, einen sicheren Betrieb zu gew\u00e4hrleisten, der sicherstellt, dass Nutzer nur autorisierte Inhalte erhalten.<\/p>\n\n\n\n<p><strong>Zentrale Anforderungen und Ma\u00dfnahmen:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Autorisierter Inhalt:<\/strong> Der Copilot darf nur Antworten auf Prompts geben, f\u00fcr die der Anfragende auch berechtigt ist. Dies erfordert eine Konsolidierung der vorhandenen Inhalte und die Vergabe von Rechten auf Dateiebene, unabh\u00e4ngig vom Ablageort.<\/li>\n\n\n\n<li><strong>Verhinderung von Oversharing:<\/strong> \u00dcberm\u00e4\u00dfiges Teilen von Inhalten mit externen Adressaten muss verhindert werden, beispielsweise durch Verkn\u00fcpfung mit Klassifizierern und Vertraulichkeitsbezeichnungen.<\/li>\n\n\n\n<li><strong>Aktualit\u00e4t der Inhalte:<\/strong> Daten, deren Aufbewahrungsfrist \u00fcberschritten ist, m\u00fcssen tats\u00e4chlich gel\u00f6scht werden, um die Aktualit\u00e4t der Inhalte zu gew\u00e4hrleisten.<\/li>\n<\/ul>\n\n\n\n<p><strong>Notwendige Dienste und Lizenzen:<\/strong> F\u00fcr den sicheren Betrieb von Microsoft 365 Copilot werden zus\u00e4tzliche Dienste und Lizenzen empfohlen oder sind notwendig:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Microsoft 365 E3- oder E5-Plan<\/strong> (E3 ben\u00f6tigt zus\u00e4tzlich E5-Compliance-Add-on).<\/li>\n\n\n\n<li><strong>Apps for Enterprise<\/strong> (mit OneDrive for Business 1 TB Speicher).\n<ul class=\"wp-block-list\">\n<li>\u00c4ltere Microsoft Office-Versionen m\u00fcssen durch Apps for Enterprise ersetzt werden.<\/li>\n\n\n\n<li>Die Umstellung des Update-Kanals auf einen monatlichen Rhythmus kann zu St\u00f6rungen bei Drittanbieter- oder internen Office-Anwendungen f\u00fchren.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>Microsoft Teams Premium:<\/strong> Erm\u00f6glicht intelligente Besprechungszusammenfassungen (Meeting Recap) und automatische Aufgabenableitung (Action Item Detection).\n<ul class=\"wp-block-list\">\n<li>Hierbei m\u00fcssen Administratoren Aufzeichnung, Transkription und Copilot in den Besprechungsrichtlinien aktivieren, was eine Mitbestimmung des Betriebsrats erfordern kann.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>SharePoint Online Advanced Management (SAM):<\/strong> Erg\u00e4nzt Microsoft Purview und hilft, inaktive Site Collections zu identifizieren und zu archivieren, was die Zugriffsgenauigkeit und Relevanz der Informationen f\u00fcr Copilot verbessert.<\/li>\n\n\n\n<li><strong>Microsoft Purview:<\/strong> Unabh\u00e4ngig von M365 Copilot sinnvoll, aber f\u00fcr dessen Betrieb unerl\u00e4sslich, um grundlegende Sicherheits- und Compliancestandards zu etablieren. Es umfasst Module wie:\n<ul class=\"wp-block-list\">\n<li><strong>Purview Information Protection:<\/strong> Automatische Klassifizierung von Dateien und E-Mails.<\/li>\n\n\n\n<li><strong>Purview Data Loss Prevention (DLP):<\/strong> Einschr\u00e4nkung von \u00fcberm\u00e4\u00dfigem Teilen nach Klassifizierung.<\/li>\n\n\n\n<li><strong>Purview Data Lifecycle Management:<\/strong> Einhaltung gesetzlicher L\u00f6sch- und Aufbewahrungsfristen.<\/li>\n\n\n\n<li><strong>Purview Insider Risk Management (IRM):<\/strong> Identifiziert potenzielle Risiken durch Nutzende, indem es verd\u00e4chtige Muster erkennt.<\/li>\n\n\n\n<li><strong>Purview Audit:<\/strong> Verfolgt die Nutzung von Microsoft 365 Copilot, um die Einhaltung von Sicherheits- und Datenschutzrichtlinien zu gew\u00e4hrleisten.<\/li>\n\n\n\n<li><strong>Purview Compliance Manager:<\/strong> Bietet ein Dashboard zur Bewertung von Compliance-Anforderungen und gibt Empfehlungen zur Risikominimierung.<\/li>\n\n\n\n<li><strong>Purview Communication Compliance:<\/strong> Analysiert Benutzerkommunikation auf Verst\u00f6\u00dfe gegen Unternehmensrichtlinien.<\/li>\n\n\n\n<li><strong>Purview Data Security Posture Management (DSPM):<\/strong> Betrachtet das Sicherheits- und Complianceniveau der gesamten Datenlandschaft.<\/li>\n\n\n\n<li><strong>Purview eDiscovery:<\/strong> Hilft, Datenfl\u00fcsse und Inhalte, auf die Copilot zugreift oder die er generiert, rechtskonform aufzufinden und bereitzustellen.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n\n\n\n<p><strong>Organisatorische Herausforderungen:<\/strong> Die Einf\u00fchrung von Purview und anderen Diensten ist aufwendig und sollte nicht nur auf technische Aspekte beschr\u00e4nkt werden. Es ist sinnvoll, ein <strong>Data-Governance-Team<\/strong> aufzubauen, das sich t\u00e4glich um fachliche Aufgaben wie die Pr\u00fcfung und Anpassung von Klassifizierungsergebnissen oder die Analyse auff\u00e4lliger Prompts k\u00fcmmert.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h4 class=\"wp-block-heading\">Fazit: Verantwortungsvoller und geplanter KI-Einsatz ist entscheidend<\/h4>\n\n\n\n<p>Der Einsatz generativer KI in Unternehmen bietet gro\u00dfes Potenzial zur Effizienzsteigerung, erfordert jedoch eine <strong>gr\u00fcndliche Planung und Abw\u00e4gung<\/strong>. Die Kosten, sowohl monet\u00e4r als auch \u00f6kologisch, d\u00fcrfen nicht untersch\u00e4tzt werden. Es ist entscheidend, von Anfang an <strong>messbare Ziele<\/strong> festzulegen und diese kontinuierlich zu verifizieren, um sicherzustellen, dass der Nutzen die Kosten \u00fcbersteigt. Eine st\u00e4rkere Transparenz der KI-Anbieter in Bezug auf Emissionsdaten w\u00fcrde die strategische Planung erheblich erleichtern. Nur durch einen verantwortungsvollen und gut geplanten Einsatz kann das volle Potenzial der KI genutzt und gleichzeitig ihre Umweltauswirkungen sowie unvorhergesehene Kosten minimiert werden.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>KI im Unternehmen: Ein umfassender Blick auf Kosten, Umweltauswirkungen und erfolgreiche Einf\u00fchrung K\u00fcnstliche Intelligenz (KI)&hellip;<\/p>\n","protected":false},"author":1,"featured_media":792,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-791","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-it"],"_links":{"self":[{"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/posts\/791","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/comments?post=791"}],"version-history":[{"count":0,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/posts\/791\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/media\/792"}],"wp:attachment":[{"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/media?parent=791"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/categories?post=791"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.g-lorenzen.de\/index.php\/wp-json\/wp\/v2\/tags?post=791"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}