Generative Dienste für künstliche Intelligenz wie ChatGPT und Midjourney ziehen die Aufmerksamkeit des Marktes auf sich. Vor diesem Hintergrund veranstaltete die Korea Artificial Intelligence Industry Association (KAIIA) den „Gen-AI Summit 2023“ auf der COEX in Samseong-dong, Seoul. Ziel der zweitägigen Veranstaltung ist es, die Entwicklung der generativen künstlichen Intelligenz (KI) zu fördern und voranzutreiben, die den gesamten Markt erweitert.
Am ersten Tag, beginnend mit der Grundsatzrede von Jin Junhe, Leiter der Geschäftsabteilung für künstliche Intelligenz-Fusion, waren große Technologieunternehmen wie Microsoft, Google und AWS anwesend, die ChatGPT aktiv entwickeln und bedienen, sowie Fabless-Industrien, die Halbleiter für künstliche Intelligenz entwickeln hielt relevante Präsentationen, darunter „NLP-Änderungen durch ChatGPT“ von Yoo Seung-jae, CEO von Persona AI, und „Aufbau eines leistungsstarken, energieeffizienten und skalierbaren KI-Inferenzchips für ChatGPT“ von Baek Jun-ho, CEO von Furiosa AI.
Jin Junhe sagte, dass im Jahr 2023, dem Jahr des Krieges um künstliche Intelligenz, der ChatGPT-Plug als neue Spielregel für den riesigen Sprachmodellwettbewerb zwischen Google und MS auf den Markt kommen wird. In diesem Fall sieht er Chancen bei KI-Halbleitern und Beschleunigern, die KI-Modelle unterstützen.
Furiosa AI ist ein repräsentatives Fabless-Unternehmen, das KI-Halbleiter in Korea herstellt. Baek, CEO von Furiosa AI, der hart daran arbeitet, Allzweck-KI-Halbleiter zu entwickeln, um zu Nvidia aufzuschließen, das den größten Teil des Weltmarktes für Hyperscale-KI hält, ist überzeugt, dass „die Nachfrage nach Chips im KI-Bereich in Zukunft explodieren wird.“ ”
Da KI-Dienste immer komplexer werden, sind sie zwangsläufig mit höheren Infrastrukturkosten konfrontiert. Die aktuellen A100- und H100-GPU-Produkte von Nvidia verfügen über die hohe Leistung und Rechenleistung, die für das Computing mit künstlicher Intelligenz erforderlich sind. Aufgrund der steigenden Gesamtkosten, wie z. B. hoher Stromverbrauch und Bereitstellungskosten, scheuen jedoch selbst sehr große Unternehmen den Umstieg Produkte der nächsten Generation. Das Kosten-Nutzen-Verhältnis äußerte Bedenken.
In diesem Zusammenhang prognostizierte Baek die Richtung der technologischen Entwicklung und sagte, dass neben der Einführung von Lösungen für künstliche Intelligenz durch immer mehr Unternehmen die Marktnachfrage darin bestehen werde, die Effizienz und Leistung innerhalb eines bestimmten Systems zu maximieren, beispielsweise „Energieeinsparung“.
Darüber hinaus betonte er, dass der Verbreitungspunkt der Halbleiterentwicklung mit künstlicher Intelligenz in China die „Benutzerfreundlichkeit“ sei, und sagte, dass die Lösung der Unterstützung der Entwicklungsumgebung und der „Programmierbarkeit“ der Schlüssel sein werde.
Nvidia hat CUDA entwickelt, um sein Support-Ökosystem zu präsentieren, und sicherzustellen, dass die Entwicklungsgemeinschaft repräsentative Frameworks für Deep Learning wie TensorFlow und Pytoch unterstützt, wird zu einer wichtigen Überlebensstrategie für die Produktisierung.
Zeitpunkt der Veröffentlichung: 29. Mai 2023