Deutsche Nachrichtenveranstaltungen finden statt

Microsoft enthüllt Maia 100 AI-Chip und Azure Cobalt CPU für Cloud-Computing

Microsoft Stock

(SeaPRwire) –   Microsoft (NASDAQ: MSFT) hat mit der Einführung seines ersten KI-Chips, dem Maia 100, den Bereich der benutzerdefinierten KI-Chips betreten. Auf der Ignite-Konferenz vorgestellt, markiert dieser Chip den Beginn von Microsofts Azure Maia AI-Beschleuniger-Serie. Zusätzlich zum Maia 100 stellte der Technologieriese auch seinen ersten benutzerdefinierten, auf Arm basierenden Azure Cobalt-Prozessor (CPU) vor, der für die allgemeine Cloud-Computing entwickelt wurde.

Dies bringt Microsoft in Einklang mit Wettbewerbern wie Google (NASDAQ: GOOGL) und Amazon (NASDAQ: AMZN), die beide ihre eigenen benutzerdefinierten Chips für ihre jeweiligen Cloud-Plattformen entwickelt haben. Der Maia 100 soll für das Training und die Inferenz von KI-Modellen in der Cloud optimiert sein und unterstreicht Microsofts Engagement, Hardware und Software zusammen zu optimieren für verbesserte Leistung und Effizienz.

Rani Borkar, Corporate Vice President für Azure Hardware Systeme und Infrastruktur bei Microsoft, hob das Fokus des Unternehmens auf die gemeinsame Entwicklung und Optimierung von Hardware und Software hervor. Ziel ist es, Synergien zu erzielen, die über die Summe der einzelnen Teile hinausgehen, indem der gesamte Stack berücksichtigt wird, um herausragende Ergebnisse zu erzielen. Indem es auf eigene Chips zurückgreift, will Microsoft signifikante Gewinne sowohl in der Leistung als auch in der Effizienz erzielen.

Die Logik hinter diesem Ansatz ist einleuchtend: Microsoft-Software wird auf Microsoft-entworfenen Chips besser laufen, da Hardware und Software aufeinander abgestimmt werden können. Diese Strategie stimmt mit Branchenpraktiken überein, wie Nvidia eigene KI-Software neben KI-Chips anbietet und Apple Chips für iPhones und Macs entwickelt, um sowohl Hardware als auch Software zu kontrollieren für verbesserte Benutzererfahrungen.

Microsoft kooperierte mit OpenAI, dem Entwickler von ChatGPT, um den Maia 100-Beschleuniger zu testen, mit dem Ziel, diese Erkenntnisse für die zukünftige Chip-Entwicklung zu nutzen. OpenAI-CEO Sam Altman äußerte sich begeistert über die Zusammenarbeit und verwies auf die Optimierung der end-to-end KI-Architektur von Azure bis hin zum Silizium mit Maia, wodurch leistungsfähigere und kostengünstigere Modelle trainiert werden können.

Neben der Chip-Entwicklung ging Microsoft auch auf Verbesserungen bei Serverplatinen und Racks ein, um diese neuen Chips aufnehmen zu können. Das Unternehmen stellte ein spezielles Kühlsystem mit dem Namen “Sidekick” vor, das Flüssigkeitskühlung nutzt, um die Wärmeabfuhr zu verbessern und den Stromverbrauch in KI-Servern zu senken. Der Azure Cobalt-Chip wiederum bietet eine 40-prozentige Leistungssteigerung gegenüber der aktuellen Generation von Arm-basierten Azure-Chips.

Obwohl Microsoft eigene Chips einführt, verabschiedet es sich nicht von Partnerschaften mit anderen Chip-Herstellern. Das Unternehmen wird weiterhin Rechenleistungen mit dem H100-Chip von Nvidia anbieten und Zugang zum neu angekündigten H200-Chip ermöglichen. Darüber hinaus plant Microsoft, ab nächstem Jahr auch auf den MI300-Chip von AMD zugreifen zu können.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire bietet Pressemitteilungsvertriebsdienste für globale Kunden in verschiedenen Sprachen an.(Hong Kong: AsiaExcite, TIHongKong; Singapore: SingdaoTimes, SingaporeEra, AsiaEase; Thailand: THNewson, THNewswire; Indonesia: IDNewsZone, LiveBerita; Philippines: PHTune, PHHit, PHBizNews; Malaysia: DataDurian, PressMalaysia; Vietnam: VNWindow, PressVN; Arab: DubaiLite, HunaTimes; Taiwan: EAStory, TaiwanPR; Germany: NachMedia, dePresseNow)