Generative KI-Dienstleistungen wie ChatGPT und Midjourney erfreuen sich zunehmender Beliebtheit. Vor diesem Hintergrund veranstaltete die Korea Artificial Intelligence Industry Association (KAIIA) den „Gen-AI Summit 2023“ im COEX in Samseong-dong, Seoul. Ziel der zweitägigen Veranstaltung war es, die Entwicklung generativer künstlicher Intelligenz (KI) voranzutreiben und so den gesamten Markt zu erweitern.
Am ersten Tag, beginnend mit der Keynote-Rede von Jin Junhe, Leiter der Abteilung für künstliche Intelligenzfusion, nahmen große Technologieunternehmen wie Microsoft, Google und AWS, die ChatGPT aktiv entwickeln und anbieten, sowie fabless Unternehmen, die Halbleiter für künstliche Intelligenz entwickeln, teil und hielten entsprechende Präsentationen, darunter „NLP-Veränderungen durch ChatGPT“ von Yoo Seung-jae, CEO von Persona AI, und „Entwicklung eines leistungsstarken, energieeffizienten und skalierbaren KI-Inferenzchips für ChatGPT“ von Baek Jun-ho, CEO von Furiosa AI.
Jin Junhe sagte voraus, dass im Jahr 2023, dem Jahr des KI-Wettkampfs, das ChatGPT-Plugin als neue Spielregel im enormen Wettbewerb um Sprachmodelle zwischen Google und Microsoft auf den Markt kommen wird. Er sieht in diesem Zusammenhang Chancen im Bereich KI-Halbleiter und -Beschleuniger, die KI-Modelle unterstützen.
Furiosa AI ist ein repräsentatives fabless Unternehmen, das in Korea KI-Halbleiter herstellt. CEO Baek, der intensiv an der Entwicklung universeller KI-Halbleiter arbeitet, um zu Nvidia aufzuschließen, dem Marktführer im Bereich hyperskalierbarer KI, ist überzeugt: „Die Nachfrage nach Chips im KI-Bereich wird in Zukunft explosionsartig steigen.“
Mit zunehmender Komplexität von KI-Diensten steigen zwangsläufig auch die Infrastrukturkosten. Nvidias aktuelle GPU-Produkte der Serien A100 und H100 bieten zwar die für KI-Anwendungen erforderliche hohe Leistung und Rechenleistung, doch aufgrund der steigenden Gesamtkosten – beispielsweise durch hohen Stromverbrauch und Implementierungskosten – zögern selbst Großunternehmen, auf die nächste Generation umzusteigen. Das Kosten-Nutzen-Verhältnis gibt Anlass zur Sorge.
In diesem Zusammenhang sagte Baek die Richtung der technologischen Entwicklung voraus und erklärte, dass neben der zunehmenden Verbreitung von Lösungen der künstlichen Intelligenz durch Unternehmen die Marktnachfrage darauf abzielen werde, Effizienz und Leistung innerhalb eines bestimmten Systems zu maximieren, beispielsweise im Bereich der „Energieeinsparung“.
Darüber hinaus betonte er, dass der Verbreitungspunkt der Entwicklung von Halbleitern für künstliche Intelligenz in China die „Benutzerfreundlichkeit“ sei, und sagte, dass die Lösung der Probleme der Entwicklungsumgebungsunterstützung und der „Programmierbarkeit“ der Schlüssel sein werde.
Nvidia hat CUDA entwickelt, um sein Support-Ökosystem zu präsentieren, und die Sicherstellung, dass die Entwicklergemeinschaft repräsentative Frameworks für Deep Learning wie TensorFlow und Pytoch unterstützt, wird zu einer wichtigen Überlebensstrategie für die Produktentwicklung.
Veröffentlichungsdatum: 29. Mai 2023





