Friday, May 15, 2026

Mehrwert für Manager

Ticker

Mit dem Ende der Experimentierphase rücken Fragen in den Mittelpunkt, die über den Erfolg ganzer Strategien entscheiden: Wie lässt sich KI verlässlich betreiben, wie bleibt sie bezahlbar – und wie verhindern Unternehmen neue Abhängigkeiten? Max Murakami, AI Platform Specialist Solution Architect bei Red Hat, zeigt, welche Entwicklungen dabei den Unterschied machen und welche Trends das KI-Jahr 2026 prägen werden.​

Bild: iStock

Die Testphase ist vorbei, die wichtigsten Erkenntnisse liegen auf dem Tisch. Für Unternehmen geht es nun darum, KI zu skalieren und verlässlich in den Betrieb zu überführen. Genau hier wird 2026 zum Wendepunkt: Der Übergang von Experimenten in produktive Umgebungen bringt neue Risiken mit sich, von steigenden Kosten über wachsende Abhängigkeiten bis hin zu einer Komplexität, die den wirtschaftlichen Nutzen untergräbt. Umso wichtiger ist der Blick auf genau die Trends, die jetzt die Richtung vorgeben. Vier Entwicklungen stechen dabei besonders hervor:

1. Agenten werden zum neuen Standard
KI-Agenten entwickeln sich 2026 von erweiterten Assistenten zu selbstständig handelnden digitalen Mitarbeitenden. Sie agieren zielorientiert, greifen autonom auf APIs, Datenquellen oder interne Systeme zu und koordinieren Aufgaben immer öfter auch in noch leistungsstärkeren Multi-Agenten-Umgebungen. Damit werden auch robuste Standards für die Interoperabilität unverzichtbar, allen voran offene Kommunikationsprotokolle wie MCP. Open Source spielt dabei eine Schlüsselrolle, um insbesondere im Kontext von Agentensystemen die notwendige Flexibilität und Unabhängigkeit von einzelnen Anbietern sicherzustellen. In der Praxis können Agenten modular und basierend auf offenen Standards effizient entwickelt und betrieben werden – etwa mit dem Llama Stack.

2. Operative Phase wird zum entscheidenden Faktor
Mit dem Übergang in die produktive Nutzung verlagert sich eine der zentralen Problemstellungen zur Wirtschaftlichkeit von KI-Lösungen. Die Herausforderung dabei: Große Reasoning-Modelle liefern beeindruckende Ergebnisse, erzeugen jedoch massive Lastspitzen und treiben die Kosten in die Höhe. War der reine Betrieb kleinerer Experimente bei Cloud-Anbietern noch sinnvoll, suchen Unternehmen für den Produktionseinsatz ihrer Modelle oft neue Wege. Als besonders vielversprechend gelten dabei Hybrid-Cloud-Ansätze, um Use Cases flexibel und effizient überall realisieren zu können. Gleichzeitig setzt sich eine Architektur aus spezialisierten Modellen durch – kleinere, komprimierte und domänenspezifische Modelle lösen konkrete Aufgaben schneller und deutlich günstiger. 2026 markiert damit auch einen Übergang zu Systemen, die aus mehreren Modellen bestehen, die sich je nach Anfrage dynamisch orchestrieren lassen und ein Höchstmaß an Effizienz bieten.

3. KI-Modelle werden zu echten Spezialisten
Für den Unternehmenseinsatz sind generische KI-Modelle meist zu groß oder zu ungenau. Das klassische Fine-Tuning erweist sich allerdings ebenfalls zunehmend als zu teuer und ineffizient, weshalb sich die Anpassung der Modelle mehr auf die Daten verlagern wird. Synthetische Daten, also gezielt erzeugte Trainingsdaten für konkrete Fachdomänen und Use Cases, werden dabei zum zentralen Hebel. Neue Verfahren zur kontinuierlichen Wissenseinspeisung integrieren zusätzliches Know-how, ohne bestehende Fähigkeiten zu überschreiben. So entstehen kleinere, passgenaue Modelle. Der Trend geht damit klar weg von einem aufwändigen Modelltraining und hin zu kontrollierter, datengetriebener Spezialisierung sowie neuen Ansätzen wie Orthogonal Subspace Fine-Tuning (OSF). Indem diese Methode neues Wissen kontinuierlich in bestehende Modelle integriert, ohne dass dabei bereits vorhandenes Wissen verloren geht, adressiert sie ein großes Problem des standardmäßigen Finetunings.

4. Hardware wird vielfältiger
Die starke Abhängigkeit von wenigen GPU-Anbietern macht sich für viele Unternehmen zunehmend negativ bemerkbar – etwa durch hohe Kosten, lange Lieferzeiten oder Vendor Lock-in. Neben klassischen GPUs werden daher verstärkt alternative Plattformen und Beschleuniger zum Einsatz kommen. Möglich wird das vor allem durch eine Softwareebene, die diese Vielfalt vereinheitlicht. Abstraktionsschichten können dabei zukünftig sicherstellen, dass Unternehmen ihre Modelle auch Hardware-unabhängig einsetzen können, ohne dass aufwändige Code-Anpassungen notwendig sind. Das Ergebnis sind flexiblere Infrastrukturen, die sich besser an Kosten, Verfügbarkeit und Energieverbrauch anpassen lassen – und Unternehmen mehr technologische Handlungsspielräume geben.

Populär

IT-Projekte: Einreichen und gewinnen – eAward 2026!

Der Wirtschaftspreis eAward zeichnet Digitalisierungsprojekte aus dem Raum...

Was 2026 kommt und wichtig wird

Wir haben unsere Leser*innen befragt, was 2026 kommt und wichtig wird....

Überraschendes Aus für Sanierungsbonus

Nach nur zwei Monaten ist Schluss. Seit 2. Februar sind keine Anträge für die...

Cybersecurity im Fadenkreuz

Digitale Sicherheit ist längst Chefsache. KI-gestützte Angriffe, geopolitische...

Die Meinungsführer*innen: Führungskräfte auf LinkedIn

LinkedIn ist die mit Abstand wichtigste Businessplattform im Netz. Exklusiv...

Aus der Praxis: Verlust des Werklohns

In der Rubrik „Aus der Praxis“ gibt Roland Weinrauch, Weinrauch Rechtsanwälte, den Leser*innen...

Die Top 12 Persönlichkeiten, die Österreich bewegen

Wechsel, Neubestellungen und Verantwortungen: Wer zu Jahresbeginn 2026 für...

Aus für Sanierungsbonus: Das sagt das Ministerium

Am 2. Februar verkündete das Umweltministerium das überraschende Aus für die...

Neue NÖ Bauordnung ab 1. März in Kraft

Mit 1. März 2026 tritt die umfassende Novelle der Niederösterreichischen...

Eventtipp: Enquete KI 2026

In einer Zeit, in der Unternehmen mit dauerhaft hohen Energiepreisen,...

Langer Weg mit viel Potenzial

Trotz technologischer Fortschritte verläuft der Ausbau der...

Was CFOs 2026 erwartet

Die Finanzchef*innen der Unternehmen werden zu strategischen Architekt*innen...

Firmen | News

Marija Kotnig
13 May 2026
Firmen | News
Die ISO 9001 ist der weltweit wichtigste Standard für Qualitätsmanagement. Sie gilt als Basis für viele andere Managementsysteme und hat sich über die Jahre kontinuierlich weiterentwickelt, um einen Rahmen für strukturierte Prozesse zu bieten. Qualit...
Vertiv
12 May 2026
Firmen | News
 Die Übernahme erweitert das technische Know-how in den Bereichen Cold-Plate-Design, serverseitige Flüssigkeitskühlung und thermische Validierung bei hoher Dichte, um die Leistung, Zuverlässigkeit und die Lebensdauer auf Systemebene zu verbesser...
Vertiv
08 May 2026
Firmen | News
Mit dem rasanten Wachstum von KI-Anwendungen steigen Leistungsdichten, Lastdynamiken und Energieanforderungen in Rechenzentren deutlich an. Betreiber stehen vor der Aufgabe, Verfügbarkeit, Effizienz und Nachhaltigkeit gleichzeitig sicherzustellen. De...
Vertiv
07 May 2026
Firmen | News
Mit steigenden Leistungsdichten in KI- und HPC-Umgebungen rücken Flüssigkeitskühlung und Mittelspannungs-Stromversorgung immer näher zusammen – häufig im selben Rack. Diese Integration eröffnet Effizienzpotenziale, stellt Betreiber jedoch vor neue Si...