banner

Nachricht

Mar 29, 2023

Microsoft und Dell bringen generative KI auf Unternehmens-Workstations; Nvidia hilft

Die beiden Partnerschaften bringen die Parallelverarbeitungsleistung, auf die sich Cloud-Anbieter stützen, um den drohenden Anstieg rechenintensiver generativer KI-Workloads zu bewältigen, auf Unternehmens-Workstations.

Das Chipdesign-Unternehmen Nvidia aus dem Silicon Valley, dessen Bewertung letzte Woche kurzzeitig die Elite-Marke von 1 Billion US-Dollar erreichte, ist bei beiden Entwicklungen eine treibende Kraft. Die GPU-Prozessoren des Unternehmens, die ursprünglich zur Unterstützung von Videospielen und grafikintensiven Anwendungen entwickelt wurden, eignen sich besser für LLM-Workloads als herkömmliche CPUs.

„Unsere Zusammenarbeit mit Nvidia ermöglicht es Kunden, mithilfe ihrer eigenen proprietären Daten schnell und in großem Umfang generative KI vor Ort bereitzustellen, und zwar sicher und geschützt“, sagte Anthony Charles Whitten, Co-COO von Dell, während einer Telefonkonferenz zu den Ergebnissen am Donnerstag.

Datenunsicherheit ist ein Hindernis für die weit verbreitete Einführung der neuen Technologie in Unternehmen. Die schiere Größe und Komplexität von LLMs und die generative KI, die sie ermöglichen, stellen ein weiteres Hindernis dar. Technologieanbieter haben beides umgangen, während Unternehmen potenzielle Geschäftsanwendungen erkunden.

„Während es viele Diskussionen über diese großen generativen KI-Modelle gibt, glauben wir, dass die spezifischere Chance in der domänenspezifischen und prozessspezifischen generativen KI liegt, bei der Kunden ihre eigenen Daten verwenden können“, sagte Whitten.

Der Übergang zu Rechenzentren und anderen Infrastrukturen zur Unterstützung von KI-Workloads ist im Gange und Whitten räumte ein, dass es einige Zeit dauern wird, bis Dell sein Geschäft verlagert.

„Die Begeisterung für KI-Anwendungen übersteigt derzeit das GPU-Angebot“, sagte Whitten. „KI-optimierte Server machen immer noch einen sehr kleinen Teil unseres gesamten Servermixes aus.“

Die Verbesserungen von Windows 11 erweitern frühere Bereitstellungen von ChatGPT und anderen KI-Tools in der gesamten Enterprise-Tech-Suite von Microsoft, einschließlich der im Mai angekündigten Ergänzungen zu Azure und Microsoft 365 Copilot.

Microsoft-Desktop-Workstations mit Nvidia-RTX-GPUs werden es Entwicklern ermöglichen, „mit Modellen unter Windows zu arbeiten, die bisher nur auf Servern verfügbar waren“, heißt es in der Ankündigung.

Ein neues Windows-Subsystem für Linux bringt den KI-Software-Stack von Nvidia in das Betriebssystem und führt Workloads auf GPUs aus, die mit denen von Rechenzentrumsprozessoren identisch sind. Dies erleichtert die Übertragung von Modellen auf Azure für große, cloudbasierte Trainingsläufe, so die Unternehmen.

AKTIE