2024년 3월 18일부터 21일까지 진행된 엔비디아 GTC 2024(AI 개발자 컨퍼런스)의 키노트 중 로봇에 대한 내용만 살펴봅니다. Omniverse and AI Robotics 1:30:05부터 2024년 3월 18일부터 21일까지 진행된 엔비디아 GTC 2024(AI 개발자 컨퍼런스)의 키노트 중 로봇에 대한 내용만 살펴봅니다. Omniverse and AI Robotics 1:30:05부터
Jensen Huang: Robotics의 다음 파도, AI Robotics의 다음 파도, 즉 물리 AI에 대해 이야기합시다. 지금까지 말씀드린 AI는 모두 1대의 컴퓨터입니다. 데이터는 전 세계 컴퓨터에 들어옵니다 만약 당신이 디지털 텍스트를 경험한다면 AI는 많은 언어를 읽음으로써 우리를 모방하고 다음 말을 예측하는 것은 당신을 모방하는 것입니다 모든 패턴이나 다른 이전의 예를 연구함으로써 당신을 모방하는 것입니다. 물론 문맥 등을 이해할 필요가 있습니다. 그러나 일단 문맥을 이해하면, 그것은 본질적으로 당신을 모방하는 것이 됩니다. 모든 데이터를 DGX와 같은 시스템에 통합 큰 언어 모델로 압축하여 수조 단위의 파라미터가 수십억 단위의 파라미터가 되며 수십억 단위의 토큰이 수십억 단위의 파라미터가 되어 수십억 단위의 파라미터가 AI가 됩니다. 젠슨황 : 로보틱스의 다음 물결, 차세대 AI 로보틱스인 physical AI(물리 AI)에 대해 이야기해 봅시다. 지금까지 우리가 이야기한 모든 AI는 하나의 컴퓨터에서 이루어졌습니다. 데이터는 하나의 컴퓨터로 들어가며, 많은 세계의 경험을 디지털 텍스트 형식으로 받아들입니다. AI는 많은 언어를 읽음으로써 우리를 모방하며, 다음 단어를 예측합니다. 이는 모든 패턴과 이전의 예시들을 연구하여 우리를 모방하는 것입니다. 물론 AI는 문맥을 이해해야 하고, 그런 과정을 거칩니다. 그러나 일단 문맥을 이해하면, 본질적으로 AI는 우리를 모방하게 됩니다. 우리는 모든 데이터를 DGX와 같은 시스템에 넣어 그것을 대규모 언어 모델로 압축합니다. 수조 개의 토큰이 수십억 개의 매개변수가 됩니다. 이 수십억 개의 매개변수는 여러분의 AI가 됩니다. AI가 물리적 세계를 이해하는 AI의 다음 물결로 가기 위해서는 3대의 컴퓨터가 필요합니다. 최초의 컴퓨터는 아직 같은 컴퓨터입니다 인공지능 컴퓨터는 비디오를 보고 합성 데이터를 생성하고 있을지도 모릅니다 텍스트형태의인간의예가있듯이AI가인간의예를봐줄것입니다, 무슨 일이 일어나고 있는지 이해하고 그것을 맥락에 적응시키려고 한다. 이러한 기초 모델로 일반화할 수 있으므로 로봇은 물리적인 세계에서도 상당히 일반적으로 기능할 수 있을지도 모릅니다. 인공지능이 물리적 세계를 이해하는 다음 AI의 물결로 가기 위해서는 3대의 컴퓨터가 필요합니다. 첫 번째 컴퓨터는 여전히 동일한 컴퓨터로, ①AI 컴퓨터입니다. 이 컴퓨터는 비디오를 시청하고, 합성 데이터 생성을 수행할 수 있으며, 텍스트 형태의 인간 예제처럼 관절 동작 형태의 인간 예제도 많이 있을 것입니다. AI는 우리를 관찰하고, 무슨 일이 일어나고 있는지 이해하며, 이를 자신에게 맞게 적응하려고 노력할 것입니다. 그리고 이러한 파운데이션 모델을 통해 일반화할 수 있기 때문에, 아마도 이 로봇들도 물리적 세계에서 비교적 일반적으로 작업을 수행할 수 있을 것입니다.-> 파운데이션 모델이 다양한 상황에서 패턴을 인식하고 학습할 수 있는 능력을 가지게 되면, 로봇들도 이 모델을 통해 물리적 세계에서 다양한 작업을 수행할 수 있게 될 것. So I just described in very simple terms, essentially what just happened in large language models, 단, 로봇 공학을 위한 ChatGPT 모멘트는 바로 거기에 있을지도 모릅니다. 그래서 우리는 잠시 동안 로봇 공학을 위한 엔드 투 엔드 시스템을 구축해 왔습니다. 저는 이 일을 매우 자랑스럽게 생각합니다 AI 시스템 DGX라고 불리는 하위 시스템 AGX를 가지고 있습니다 자율 시스템을 위한 세계 최초의 로봇 프로세서입니다 우리가 첫 번째로 만든 것은 이 사람들입니다. 그것은 SoC이고, 그것은 매우 낮은 전력으로 설계된 하나의 칩입니다. 그러나 그것은 고속 센서 처리와 AI를 위해 설계되었습니다. 만약 차 안에서 트랜스포머를 하고 싶다면, Jensen Huang: Robotics의 다음 파도, AI Robotics의 다음 파도, 즉 물리 AI에 대해 이야기합시다. 지금까지 말씀드린 AI는 모두 1대의 컴퓨터입니다. 데이터는 전 세계 컴퓨터에 들어옵니다 만약 당신이 디지털 텍스트를 경험한다면 AI는 많은 언어를 읽음으로써 우리를 모방하고 다음 말을 예측하는 것은 당신을 모방하는 것입니다 모든 패턴이나 다른 이전의 예를 연구함으로써 당신을 모방하는 것입니다. 물론 문맥 등을 이해할 필요가 있습니다. 그러나 일단 문맥을 이해하면, 그것은 본질적으로 당신을 모방하는 것이 됩니다. 모든 데이터를 DGX와 같은 시스템에 통합 큰 언어 모델로 압축하여 수조 단위의 파라미터가 수십억 단위의 파라미터가 되며 수십억 단위의 토큰이 수십억 단위의 파라미터가 되어 수십억 단위의 파라미터가 AI가 됩니다. 젠슨황 : 로보틱스의 다음 물결, 차세대 AI 로보틱스인 physical AI(물리 AI)에 대해 이야기해 봅시다. 지금까지 우리가 이야기한 모든 AI는 하나의 컴퓨터에서 이루어졌습니다. 데이터는 하나의 컴퓨터로 들어가며, 많은 세계의 경험을 디지털 텍스트 형식으로 받아들입니다. AI는 많은 언어를 읽음으로써 우리를 모방하며, 다음 단어를 예측합니다. 이는 모든 패턴과 이전의 예시들을 연구하여 우리를 모방하는 것입니다. 물론 AI는 문맥을 이해해야 하고, 그런 과정을 거칩니다. 그러나 일단 문맥을 이해하면, 본질적으로 AI는 우리를 모방하게 됩니다. 우리는 모든 데이터를 DGX와 같은 시스템에 넣어 그것을 대규모 언어 모델로 압축합니다. 수조 개의 토큰이 수십억 개의 매개변수가 됩니다. 이 수십억 개의 매개변수는 여러분의 AI가 됩니다. AI가 물리적 세계를 이해하는 AI의 다음 물결로 가기 위해서는 3대의 컴퓨터가 필요합니다. 최초의 컴퓨터는 아직 같은 컴퓨터입니다 인공지능 컴퓨터는 비디오를 보고 합성 데이터를 생성하고 있을지도 모릅니다 텍스트형태의인간의예가있듯이AI가인간의예를봐줄것입니다, 무슨 일이 일어나고 있는지 이해하고 그것을 맥락에 적응시키려고 한다. 이러한 기초 모델로 일반화할 수 있으므로 로봇은 물리적인 세계에서도 상당히 일반적으로 기능할 수 있을지도 모릅니다. 인공지능이 물리적 세계를 이해하는 다음 AI의 물결로 가기 위해서는 3대의 컴퓨터가 필요합니다. 첫 번째 컴퓨터는 여전히 동일한 컴퓨터로, ①AI 컴퓨터입니다. 이 컴퓨터는 비디오를 시청하고, 합성 데이터 생성을 수행할 수 있으며
(비디오 1:35:00) The future of heavy industry starts as a digital twin. (내레이션) 중공업의 미래는 디지털 트윈으로 시작됩니다. (비디오 1:35:00) The future of heavy industry starts as a digital twin. (내레이션) 중공업의 미래는 디지털 트윈으로 시작됩니다.
The AI agents helping robots, workers and infrastructure navigate unpredictable events in complex industrial spaces will be built and evaluated first in sophisticated digital twins.複雑な産業空間で予測できない出来事を探索するロボット、作業者およびインフラを助けるAIエージェントは、精巧なデジタルツインで先に構築され評価されます。 The AI agents helping robots, workers and infrastructure navigate unpredictable events in complex industrial spaces will be built and evaluated first in sophisticated digital twins.複雑な産業空間で予測できない出来事を探索するロボット、作業者およびインフラを助けるAIエージェントは、精巧なデジタルツインで先に構築され評価されます。
이 10만 피트 창고의 옴니버스 디지털 트윈은 디지털 워커, NVIDIA Isaac Perceptor 스택을 실행하는 amrs, NVIDIA Metropolis를 사용한 100대의 시뮬레이션 천장 마운트 카메라에서 창고 전체의 집중 액티비티 맵을 통합하는 시뮬레이션 환경으로 작동합니다, 물리적으로 정확한 시뮬레이션 환경에서 AI 에이전트를 루프 테스트하는 NVIDIA cuOpt 소프트웨어를 사용한 AMR 루트 계획을 통해 시스템이 실제 예측 불가능성에 어떻게 적응하는지 평가하고 자세히 검토할 수 있습니다. 이 옴니버스 디지털 트윈은 10만 평방 피트 규모(2만 8천 평)의 창고를 시뮬레이션 환경으로 운영하고 있으며, 이는 디지털 근로자, NVIDIA Isaac Perceptor 스택을 사용하는 AMR(자율 이동 로봇), NVIDIA Metropolis를 사용한 100개의 시뮬레이션된 천장 설치 카메라로부터의 창고 전체의 중앙 활동 맵, NVIDIA cuOpt 소프트웨어(경로 최적화 소프트웨어)를 사용한 AMR 경로 계획을 통합합니다. 이러한 물리적으로 정확한 시뮬레이션 환경에서 AI 에이전트를 루프 테스트함으로써 시스템이 실제 세계의 예측 불가능성에 어떻게 적응하는지 평가하고 개선할 수 있게 해줍니다.* Nvidia Metropolis : 영상 분석 애플리케이션. 시각적 데이터와 AI를 결합하여 광범위한 산업 전반에서 운영 효율성과 안전을 개선하는 애플리케이션 프레임워크 및 개발자 도구 세트* NVIDIA cuOpt : 경로 최적화 소프트웨어 라이브러리로, 복잡한 실시간 물류 및 경로 계획 문제를 해결하는 데 사용됨. 실시간 데이터를 활용하여 지속적으로 최적의 경로를 업데이트하고 계산할 수 있기 때문에, 물류 운영의 효율성을 크게 향상시킬 지금까지 10만 피트 창고의 옴니버스 디지털 트윈은 디지털 워커, 엔비디아 Isaac Perceptor 스택을 실행하는 amrs, 엔비디아 Metropolis를 사용한 100대의 시뮬레이션 천장 마운트 카메라에서 창고 전체의 집중 액티비티 맵을 통합하는 시뮬레이션 환경으로 작동하고 있습니다, 물리적으로 정확한 시뮬레이션 환경에서 AI 에이전트를 루프 테스트하는 NVIDIA cuOpt 소프트웨어를 사용한 AMR 루트 계획을 통해 시스템이 실제 예측 불가능성에 어떻게 적응하는지 평가하고 자세히 검토할 수 있습니다. 이 옴니버스 디지털 트윈은 10만 평방 피트 규모(2만 8천 평)의 창고를 시뮬레이션 환경으로 운영하고 있으며, 이는 디지털 근로자, NVIDIA Isaac Perceptor 스택을 사용하는 AMR(자율 이동 로봇), NVIDIA Metropolis를 사용한 100개의 시뮬레이션된 천장 설치 카메라로부터의 창고 전체의 중앙 활동 맵, NVIDIA cuOpt 소프트웨어(경로 최적화 소프트웨어)를 사용한 AMR 경로 계획을 통합합니다. 이러한 물리적으로 정확한 시뮬레이션 환경에서 AI 에이전트를 루프 테스트함으로써 시스템이 실제 세계의 예측 불가능성에 어떻게 적응하는지 평가하고 개선할 수 있게 해줍니다.* Nvidia Metropolis : 영상 분석 애플리케이션. 시각적 데이터와 AI를 결합하여 광범위한 산업 전반에서 운영 효율성과 안전을 개선하는 애플리케이션 프레임워크 및 개발자 도구 세트* NVIDIA cuOpt : 경로 최적화 소프트웨어 라이브러리로, 복잡한 실시간 물류 및 경로 계획 문제를 해결하는 데 사용됨. 실시간 데이터를 활용하여 지속적으로 최적의 경로를 업데이트하고 계산할 수 있기 때문에, 물류 운영의 효율성을 크게 향상시킬 수 있음
Herean incident occurs along this AMR’s planned route, blocking it spath as it moves to pick up a pallet. 이 시나리오에서 AMR(자율이동로봇)이 팔레트를 픽업하기 위해 이동하는 동안 경로상에 사건이 발생해 길이 막힙니다. Herean incident occurs along this AMR’s planned route, blocking it spath as it moves to pick up a pallet. 이 시나리오에서 AMR(자율이동로봇)이 팔레트를 픽업하기 위해 이동하는 동안 경로상에 사건이 발생해 길이 막힙니다.
엔비디아 메트로폴리스는 cuOpt에 실시간 점유 맵을 업데이트하여 전송하며, 거기서 새로운 최적 경로가 계산됩니다. AMR은 모퉁이를 돌아 보이게 되어 미션 효율을 향상시킬 수 있습니다. 인공지능(AI)을 활용한 메트로폴리스 비전 파운데이션(Metropolis Vision Foundation)의 세대 모델을 통해 운영자는 자연어를 사용하여 질문할 수도 있습니다. 엔비디아 메트로폴리스는 실시간 점유 맵을 업데이트하여 cuOpt에 전송하며, 여기서 새로운 최적 경로가 계산됩니다. 이를 통해 AMR은 코너 주위를 볼 수 있게 되어 임무 효율성을 향상시킵니다. 생성형 AI가 지원되는 Metropolis Vision Foundation 모델을 사용하면 운영자들이 자연어를 사용해 질문을 할 수 있습니다. 엔비디아 메트로폴리스는 cuOpt에 실시간 점유 맵을 업데이트하여 전송하며, 거기서 새로운 최적 경로가 계산됩니다. AMR은 모퉁이를 돌아 보이게 되어 미션 효율을 향상시킬 수 있습니다. 인공지능(AI)을 활용한 메트로폴리스 비전 파운데이션(Metropolis Vision Foundation)의 세대 모델을 통해 운영자는 자연어를 사용하여 질문할 수도 있습니다. 엔비디아 메트로폴리스는 실시간 점유 맵을 업데이트하여 cuOpt에 전송하며, 여기서 새로운 최적 경로가 계산됩니다. 이를 통해 AMR은 코너 주위를 볼 수 있게 되어 임무 효율성을 향상시킵니다. 생성형 AI가 지원되는 Metropolis Vision Foundation 모델을 사용하면 운영자들이 자연어를 사용해 질문을 할 수 있습니다.
The visual model understandsnuanced activity, and can offer immediate insights to improve operations. all of the sensor data is created in simulation and passed to the real-time AI running as NVIDIA Inference Microservice or NIMs. 비전 모델은 미묘한 활동을 이해하고 운영을 개선하기 위한 즉각적인 통찰력을 제공할 수 있습니다. 모든 센서 데이터는 시뮬레이션으로 생성되어 NIMs(NVIDIA Inference Microservice)에서 실행되는 실시간 AI로 전달됩니다. * 엔비디아 NIMs: AI 추론 마이크로 서비스. AI 워크로드의 개발, 배포, 관리에 필요한 모든 것을 제공하는 클라우드 기반 서비스. The visual model understandsnuanced activity, and can offer immediate insights to improve operations. all of the sensor data is created in simulation and passed to the real-time AI running as NVIDIA Inference Microservice or NIMs. 비전 모델은 미묘한 활동을 이해하고 운영을 개선하기 위한 즉각적인 통찰력을 제공할 수 있습니다. 모든 센서 데이터는 시뮬레이션으로 생성되어 NIMs(NVIDIA Inference Microservice)에서 실행되는 실시간 AI로 전달됩니다. * 엔비디아 NIMs: AI 추론 마이크로 서비스. AI 워크로드의 개발, 배포, 관리에 필요한 모든 것을 제공하는 클라우드 기반 서비스.
실제 창고인 물리적 트윈에 AI를 도입할 준비가 되면 메트로폴리스와 이사크 NIMs를 실제 센서에 연결해 디지털 트윈과 AI 모델을 모두 지속적으로 개선합니다. 그리고 실제 창고에 AI를 배치할 준비가 되면 디지털 트윈과 AI 모델 모두의 지속적인 개선 기능을 갖춘 메트로폴리스와 아이작 NIM을 실제 센서에 연결합니다. Jensen Huang : 그건 멋진 일 아닌가요? 그래서 미래의 시설, 창고, 공장, 건물은 소프트웨어로 정의된다는 것을 기억하세요. 소프트웨어는 다른 방법으로 소프트웨어를 테스트하기 때문에 소프트웨어를 테스트하여 창고를 만들 수 있습니다 디지털 트윈 최적화 시스템입니다. 지금 보시는 모든 로봇은 자율형 로봇 스택을 실행하고 있습니다. 미래의 소프트웨어나 미래의 CI/CD를 로봇 시스템에 통합하는 방법은 디지털 쌍둥이와 함께입니다. 젠슨황 : 정말 놀랍죠? 기억하세요. 미래의 시설, 창고, 공장, 건물은 소프트웨어로 정의될 것입니다. 소프트웨어가 실행되고 있는데, 소프트웨어를 어떻게 테스트할까요? 소프트웨어를 테스트하기 위해 디지털 트윈에서 창고와 최적화 시스템을 구축합니다. 지금 보시는 모든 로봇들은 각자의 자율 로봇 스택을 실행하고 있습니다. 미래의 소프트웨어, 미래의 CI/CD(소프트웨어 개발, 배포 프로세스 자동화)를 로봇 시스템에 통합하는 방법은 디지털 트윈입니다.-> 앞으로 창고들은 소프트웨어로 돌아갈 것. 그런데 이 소프트웨어는 어떻게 실험? 실제 창고를 만들기 전에 가상 세계에서 소프트웨어와 시스템을 먼저 시험해보면 실제로 만들기 전에 모든 것이 제대로 작동하는지 확인할 수 있음* CI/CD (Continuous Integration/Continuous Deployment) : 지속적통합 + 지속적배포. 자동화된 빌드,테스트 +자동화된 배포 실제 창고인 물리적 트윈에 AI를 도입할 준비가 되면 메트로폴리스와 이사크 NIMs를 실제 센서에 연결해 디지털 트윈과 AI 모델을 모두 지속적으로 개선합니다. 그리고 실제 창고에 AI를 배치할 준비가 되면 디지털 트윈과 AI 모델 모두의 지속적인 개선 기능을 갖춘 메트로폴리스와 아이작 NIM을 실제 센서에 연결합니다. Jensen Huang : 그건 멋진 일 아닌가요? 그래서 미래의 시설, 창고, 공장, 건물은 소프트웨어로 정의된다는 것을 기억하세요. 소프트웨어는 다른 방법으로 소프트웨어를 테스트하기 때문에 소프트웨어를 테스트하여 창고를 만들 수 있습니다 디지털 트윈 최적화 시스템입니다. 지금 보시는 모든 로봇은 자율형 로봇 스택을 실행하고 있습니다. 미래의 소프트웨어나 미래의 CI/CD를 로봇 시스템에 통합하는 방법은 디지털 쌍둥이와 함께입니다. 젠슨황 : 정말 놀랍죠? 기억하세요. 미래의 시설, 창고, 공장, 건물은 소프트웨어로 정의될 것입니다. 소프트웨어가 실행되고 있는데, 소프트웨어를 어떻게 테스트할까요? 소프트웨어를 테스트하기 위해 디지털 트윈에서 창고와 최적화 시스템을 구축합니다. 지금 보시는 모든 로봇들은 각자의 자율 로봇 스택을 실행하고 있습니다. 미래의 소프트웨어, 미래의 CI/CD(소프트웨어 개발, 배포 프로세스 자동화)를 로봇 시스템에 통합하는 방법은 디지털 트윈입니다.-> 앞으로 창고들은 소프트웨어로 돌아갈 것. 그런데 이 소프트웨어는 어떻게 실험? 실제 창고를 만들기 전에 가상 세계에서 소프트웨어와 시스템을 먼저 시험해보면 실제로 만들기 전에 모든 것이 제대로 작동하는지 확인할 수 있음* CI/CD (Continuous Integration/Continuous Deployment) : 지속적통합 + 지속적배포. 자동화된 빌드,테스트 +자동화된 배포
Omniverse에 대한 액세스를 크게 용이하게 했습니다. 기본적으로 Omniverse Cloud API를 만들고 4개의 간단한 API와 1개의 채널을 만듭니다. 이것에 애플리케이션을 접속할 수 있습니다. 이것은 Omniverse가 장차 실현할 훌륭히 아름답고 심플한 것이 될 것입니다 API를 사용하면 마법과 같은 디지털 트윈 기능을 얻을 수 있습니다. 우리는 Omniverse를 훨씬 더 쉽게 접근할 수 있도록 만들었습니다. 기본적으로 4개의 간단한 API (Omniverse Cloud API)와 채널을 만들 것이고, 여기에 응용 프로그램을 연결할 수 있습니다. 따라서 미래의 Omniverse는 놀랍도록 아름답고 간단해질 것입니다. 이 API들을 통해 마법 같은 디지털 트윈 기능을 사용할 수 있게 될 것입입니다..<새로운 Omniverse Cloud API> – USD글쓰기: 데이터를 편집하고 수정할 수 있는 기능. 예를 들어, 3D 모델의 위치를 변경하거나 색상을 바꾸는 것.- USD Render : 고품질의 3D 그래픽을 만드는 기능. 예를 들어, 실제처럼 보이는 그림자를 포함한 3D 이미지를 생성하는 것.- USD Query : 데이터를 검색하고 상호작용할 수 있는 기능. 예를 들어, 특정 객체를 찾거나 특정 조건을 만족하는 장면을 보여주는 것.- USD Notify : USD 변경사항을 추적하고 업데이트를 제공。 예를 들어, 누군가가 3D 모델을 수정했을 때 이를 알려주는 것. – Omminverse Channel APIs : 여러 사용자가 함께 작업할 수 있도록 도와주는 기능。 예를 들어, 팀원들이 동시에 같은 3D 프로젝트를 작업할 수 있도록 하는 것.* USD(Universal Scene Description) : 픽사(Pixar)에서 개발한 파일 포맷과 소프트웨어 도구 세트. 3D 그래픽 및 애니메이션을 만들고 관리하는 데 필요한 모든 요소를 하나의 통합된 형식으로 저장할 수 있게 해주는 도구 Omniverse에 대한 액세스를 크게 용이하게 했습니다. 기본적으로 Omniverse Cloud API를 만들고 4개의 간단한 API와 1개의 채널을 만듭니다. 이것에 애플리케이션을 접속할 수 있습니다. 이것은 Omniverse가 장차 실현할 훌륭히 아름답고 심플한 것이 될 것입니다 API를 사용하면 마법과 같은 디지털 트윈 기능을 얻을 수 있습니다. 우리는 Omniverse를 훨씬 더 쉽게 접근할 수 있도록 만들었습니다. 기본적으로 4개의 간단한 API (Omniverse Cloud API)와 채널을 만들 것이고, 여기에 응용 프로그램을 연결할 수 있습니다. 따라서 미래의 Omniverse는 놀랍도록 아름답고 간단해질 것입니다. 이 API들을 통해 마법 같은 디지털 트윈 기능을 사용할 수 있게 될 것입입니다..<새로운 Omniverse Cloud API> – USD글쓰기: 데이터를 편집하고 수정할 수 있는 기능. 예를 들어, 3D 모델의 위치를 변경하거나 색상을 바꾸는 것.- USD Render : 고품질의 3D 그래픽을 만드는 기능. 예를 들어, 실제처럼 보이는 그림자를 포함한 3D 이미지를 생성하는 것.- USD Query : 데이터를 검색하고 상호작용할 수 있는 기능. 예를 들어, 특정 객체를 찾거나 특정 조건을 만족하는 장면을 보여주는 것.- USD Notify : USD 변경사항을 추적하고 업데이트를 제공。 예를 들어, 누군가가 3D 모델을 수정했을 때 이를 알려주는 것. – Omminverse Channel APIs : 여러 사용자가 함께 작업할 수 있도록 도와주는 기능。 예를 들어, 팀원들이 동시에 같은 3D 프로젝트를 작업할 수 있도록 하는 것.* USD(Universal Scene Description) : 픽사(Pixar)에서 개발한 파일 포맷과 소프트웨어 도구 세트. 3D 그래픽 및 애니메이션을 만들고 관리하는 데 필요한 모든 요소를 하나의 통합된 형식으로 저장할 수 있게 해주는 도구
또한 Omniverse를 AI로 바꾸고 그것을 USD 채팅 기능과 통합했습니다. 우리의 언어는 당신이 알고 있는 인간의 언어이며, Omniverse는 보편적인 장면 묘사로 판명되었습니다. 언어는 상당히 복잡하기 때문에 옴니버스에게 그 언어를 가르쳤습니다. 그래서 당신은 영어로 말할 수 있고, 그것은 직접 USD를 생성합니다. 미국 달러로 이야기를 되돌리겠습니다만 영어로 이야기를 되돌리면 이세계의정보를의미론적으로찾을수도있습니다. 세계는 언어로 의미적으로 부호화되는 것이 아니라 이제는 장면으로 의미적으로 부호화됩니다. 특정 대상이나 조건이나 시나리오에 대해 물어볼 수 있습니다 그러면 그 시나리오를 찾을 수 있어요. 또 세대 간에 연계하거나 3D로 무언가를 설계하거나 3D로 시뮬레이션하거나 AI를 사용해 무언가를 3D로 생성할 수도 있습니다. 이 모든 것이 어떻게 기능하는지 살펴봅시다. 우리는 지멘스와 훌륭한 파트너십을 가지고 있습니다. 우리는 또한 Omniverse를 AI로 전환하고, USD(Universal Scene Description)와 대화할 수 있는 능력을 통합했습니다. 우리의 언어는 인간의 언어인 반면, Omniverse의 언어는 보편적 장면 설명(USD)입니다. 이 언어는 다소 복잡하기 때문에, 우리는 Omniverse에게 이 언어를 가르쳤습니다. 따라서 영어로 Omniverse와 대화하면, 그것은 직접 USD를 생성합니다. 옴니버스는 USD로 응답하지만, 다시 영어로 대화할 수 있습니다. 시나리오에서 정보를 의미론적으로 검색할 수도 있습니다. 장면이 의미론적으로 인코딩되어서 특정 객체, 특정 조건, 특정 시나리오를 물어보면, 그것이 해당 시나리오를 찾아줄 수 있습니다. 또한 3D 디자인을 함께 생성하거나, 3D로 시뮬레이션을 하거나 AI를 사용해 3D로 무언가를 생성할 수 있습니다. 이제 이러한 모든 기능들이 어떻게 작동하는지 살펴보겠습니다. 우리는 SIEMENS와 훌륭한 파트너십을 맺고 있습니다. 너사 – 지멘스/닛산 입니다 또한 Omniverse를 AI로 바꾸고 그것을 USD 채팅 기능과 통합했습니다. 우리의 언어는 당신이 알고 있는 인간의 언어이며, Omniverse는 보편적인 장면 묘사로 판명되었습니다. 언어는 상당히 복잡하기 때문에 옴니버스에게 그 언어를 가르쳤습니다. 그래서 당신은 영어로 말할 수 있고, 그것은 직접 USD를 생성합니다. 미국 달러로 이야기를 되돌리겠습니다만 영어로 이야기를 되돌리면 이세계의정보를의미론적으로찾을수도있습니다. 세계는 언어로 의미적으로 부호화되는 것이 아니라 이제는 장면으로 의미적으로 부호화됩니다. 특정 대상이나 조건이나 시나리오에 대해 물어볼 수 있습니다 그러면 그 시나리오를 찾을 수 있어요. 또 세대 간에 연계하거나 3D로 무언가를 설계하거나 3D로 시뮬레이션하거나 AI를 사용해 무언가를 3D로 생성할 수도 있습니다. 이 모든 것이 어떻게 기능하는지 살펴봅시다. 우리는 지멘스와 훌륭한 파트너십을 가지고 있습니다. 우리는 또한 Omniverse를 AI로 전환하고, USD(Universal Scene Description)와 대화할 수 있는 능력을 통합했습니다. 우리의 언어는 인간의 언어인 반면, Omniverse의 언어는 보편적 장면 설명(USD)입니다. 이 언어는 다소 복잡하기 때문에, 우리는 Omniverse에게 이 언어를 가르쳤습니다. 따라서 영어로 Omniverse와 대화하면, 그것은 직접 USD를 생성합니다. 옴니버스는 USD로 응답하지만, 다시 영어로 대화할 수 있습니다. 시나리오에서 정보를 의미론적으로 검색할 수도 있습니다. 장면이 의미론적으로 인코딩되어서 특정 객체, 특정 조건, 특정 시나리오를 물어보면, 그것이 해당 시나리오를 찾아줄 수 있습니다. 또한 3D 디자인을 함께 생성하거나, 3D로 시뮬레이션을 하거나 AI를 사용해 3D로 무언가를 생성할 수 있습니다. 이제 이러한 모든 기능들이 어떻게 작동하는지 살펴보겠습니다. 우리는 SIEMENS와 훌륭한 파트너십을 맺고 있습니다. 너사 – 지멘스/닛산 입니다
지멘스는 세계 최대의 산업 엔지니어링 및 운용 플랫폼입니다. 산업계에서는 매우 많은 다른 기업들을 살펴보았는데, 중공업은 그 최종적인 프런티어 중 하나였고, 마침내 필요한 테크놀로지가 등장해 큰 영향을 미치게 되었습니다. 지멘스는 산업용 메타버스를 구축하고 있으며, 오늘 지멘스는 왕관의 보석인 Xcelerator를 엔비디아 옴니버스에 연결할 것을 발표합니다. 봅시다. SIEMENS는 세계 최대의 산업 공학 및 운영 플랫폼입니다. 여러분은 이제 산업 분야에서 많은 다양한 회사들을 보셨을 것입니다. 중공업은 이러한 분야 중 가장 중요한 최종 프론티어 중 하나이며, 우리는 마침내 실질적인 영향을 미칠 수 있는 필요한 기술을 갖추게 되었습니다. SIEMENS는 산업 메타버스를 구축하고 있으며, 오늘 우리는 SIEMENS가 그들의 핵심 자산인 Xcelerator(통합 디지털 비즈니스 플랫폼)를 NVIDIA Omniverse와 연결하고 있음을 발표합니다. 이제 이를 살펴보겠습니다. 지멘스는 세계 최대의 산업 엔지니어링 및 운용 플랫폼입니다. 산업계에서는 매우 많은 다른 기업들을 살펴보았는데, 중공업은 그 최종적인 프런티어 중 하나였고, 마침내 필요한 테크놀로지가 등장해 큰 영향을 미치게 되었습니다. 지멘스는 산업용 메타버스를 구축하고 있으며, 오늘 지멘스는 왕관의 보석인 Xcelerator를 엔비디아 옴니버스에 연결할 것을 발표합니다. 봅시다. SIEMENS는 세계 최대의 산업 공학 및 운영 플랫폼입니다. 여러분은 이제 산업 분야에서 많은 다양한 회사들을 보셨을 것입니다. 중공업은 이러한 분야 중 가장 중요한 최종 프론티어 중 하나이며, 우리는 마침내 실질적인 영향을 미칠 수 있는 필요한 기술을 갖추게 되었습니다. SIEMENS는 산업 메타버스를 구축하고 있으며, 오늘 우리는 SIEMENS가 그들의 핵심 자산인 Xcelerator(통합 디지털 비즈니스 플랫폼)를 NVIDIA Omniverse와 연결하고 있음을 발표합니다. 이제 이를 살펴보겠습니다.
동영상 (1:39:23) SIEMENS technology is transformed every day, for everyone. Teamcenter X, our leading product life cycle management software from the SIEMENS Xcelerator platform is used every day by our customers, to develop, and deliver products at scale.지멘스 기술은 매일, 모든 사람을 위해 변화하고 있습니다。 SIEMENS Xceleratorプラットフォームの主要製品であるライフサイクル管理ソフトウェアTeamcenter Xは、お客様が毎日使用して大規模に製品を開発·提供するために使用されています。 동영상 (1:39:23) SIEMENS technology is transformed every day, for everyone. Teamcenter X, our leading product life cycle management software from the SIEMENS Xcelerator platform is used every day by our customers, to develop, and deliver products at scale.지멘스 기술은 매일, 모든 사람을 위해 변화하고 있습니다。 SIEMENS Xceleratorプラットフォームの主要製品であるライフサイクル管理ソフトウェアTeamcenter Xは、お客様が毎日使用して大規模に製品を開発·提供するために使用されています。
現在、NVIDIA AI と Omniverse Technologies を Teamcenter X に統 Combined することで、現実とデジタルの 界をさらに Now we are bringing the real world and the digital world closer together by integrating NVIDIA AI and Omniverse technologies into Teamcenter X 。 現在、 NVIDIA AI と Omniverse Technologies づけています。 に統 Teamcenter X することで、現実とデジタルの Combined 界をさらに を We are bringing the real world and the digital world closer together by integrating NVIDIA AI and Omniverse technologies into Teamcenter X づけています。
Omniverse APIsenable data interoperability and physics-based rendering to Industrial scale design and manufacturing projects. The omnibus API allows you to perform industrial-scale design and manufacturing projects through data interoperability and physical-based rendering. Omniverse APIsenable data interoperability and physics-based rendering to Industrial scale design and manufacturing projects. The omnibus API allows you to perform industrial-scale design and manufacturing projects through data interoperability and physical-based rendering.
Our customers HD Hyundai, market leader in sustainable ship manufacturing builds ammonia and hydrogen power ships often comprising over 7 million discreteparts. 持続可能な船舶製造の市場リーダーであるHD現代のような顧客はアンモニア及び水素動力船舶を製作し、これは700万個以上の個別部品で構成されます。 Our customers HD Hyundai, market leader in sustainable ship manufacturing builds ammonia and hydrogen power ships often comprising over 7 million discreteparts. 持続可能な船舶製造の市場リーダーであるHD現代のような顧客はアンモニア及び水素動力船舶を製作し、これは700万個以上の個別部品で構成されます。
대서양 파도,원격,사진촬영,바다,바다,아침하늘 With Omniverse APIs, Teamcenter X lets companies like HD Hyundai, unify and visualize these massive engineering data sets interactively. And integrate generative AI to generate 3D objects or HD Ribackgrounds to see their projects in context. Omniverse API를 사용하여 Teamcenter X는 HD현대와 같은 기업들이 이러한 방대한 엔지니어링 데이터 세트를 통합하여 상호작용적으로 시각화할 수 있습니다. 또 생성 AI를 통합해 3D 객체나 HDRi 배경을 생성해 프로젝트를 문맥 속에서 볼 수 있습니다. * HDRi (High Dynamic Range Imaging) : HDRi는 매우 넓은 밝기 범위를 캡처할 수 있는 이미지를 말하며, 이는 일반적인 디지털 이미지보다 훨씬 많은 디테일과 명암비를 제공한다. 이러한 화상은 주로 3D 그래픽 및 렌더링에서 사용된다. 대서양 파도,원격,사진촬영,바다,바다,아침하늘 With Omniverse APIs, Teamcenter X lets companies like HD Hyundai, unify and visualize these massive engineering data sets interactively. And integrate generative AI to generate 3D objects or HD Ribackgrounds to see their projects in context. Omniverse API를 사용하여 Teamcenter X는 HD현대와 같은 기업들이 이러한 방대한 엔지니어링 데이터 세트를 통합하여 상호작용적으로 시각화할 수 있습니다. 또 생성 AI를 통합해 3D 객체나 HDRi 배경을 생성해 프로젝트를 문맥 속에서 볼 수 있습니다. * HDRi (High Dynamic Range Imaging) : HDRi는 매우 넓은 밝기 범위를 캡처할 수 있는 이미지를 말하며, 이는 일반적인 디지털 이미지보다 훨씬 많은 디테일과 명암비를 제공한다. 이러한 화상은 주로 3D 그래픽 및 렌더링에서 사용된다.
그 결과, 낭비와 오류를 배제하고 비용과 시간을 대폭 절감하는 초직관적인 포토 물리 기반 디지털 트윈이 실현됩니다. 우리는 이것을 공동 작업을 위해 만들고 있습니다. SIEMENES NX나 STAR-CCM+와 같은 더 많은 Siemens Xcelerator 툴 또는 마음에 드는 디바이스에서 작업하는 팀 간에 같은 장면에서 함께 작업할 수 있습니다. 이는 엔비디아와 협력하여 지멘스 Xcelerator 포트폴리오 전체에 걸쳐 고속 컴퓨팅, 제네레이티브 AI 및 옴니버스 통합을 실현하는 시작에 불과합니다. 결과적으로, 우리는 낭비와 오류를 제거하는 초직관적이고 물리 기반의 디지털 트윈을 만들어 비용과 시간을 대폭 절감할 수 있습니다. 또한, 우리는 협업을 위해 이 시스템을 구축하고 있습니다. SIEMENS NX나 STAR-CCM+와 같은 더 많은 SIEMENS Xcelerator 도구를 통해서든, 각자의 좋아하는 장치를 사용하는 팀이 같은 장면에서 함께 작업하든 상관없이 말입니다. 그리고 이것은 시작에 불과합니다. NVIDIA와 협력하여 SIEMENS Xcelerator 포트폴리오 전반에 걸쳐 가속 컴퓨팅, 생성형 AI 및 Omniverse 통합을 도입할 것입니다.* SIEMENS NX : 제품 설계, 시뮬레이션, 제조를 위한 통합 솔루션 ex CAD(3D 모델링), CAM(제조 공정을 위한 툴), CAE(제품 성능 예측, 최적화하는 시뮬레이션 도구)* STAR-CCM+ : 유체역학(CFD) 및 다중물리 시뮬레이션 소프트웨어 Nissan과 다른 파트너사들 / Vision Pro 동영상 (1:42:24) 그 결과, 낭비와 오류를 배제하고 비용과 시간을 대폭 절감하는 초직관적인 포토 물리 기반 디지털 트윈이 실현됩니다. 우리는 이것을 공동 작업을 위해 만들고 있습니다. SIEMENES NX나 STAR-CCM+와 같은 더 많은 Siemens Xcelerator 툴 또는 마음에 드는 디바이스에서 작업하는 팀 간에 같은 장면에서 함께 작업할 수 있습니다. 이는 엔비디아와 협력하여 지멘스 Xcelerator 포트폴리오 전체에 걸쳐 고속 컴퓨팅, 제네레이티브 AI 및 옴니버스 통합을 실현하는 시작에 불과합니다. 결과적으로, 우리는 낭비와 오류를 제거하는 초직관적이고 물리 기반의 디지털 트윈을 만들어 비용과 시간을 대폭 절감할 수 있습니다. 또한, 우리는 협업을 위해 이 시스템을 구축하고 있습니다. SIEMENS NX나 STAR-CCM+와 같은 더 많은 SIEMENS Xcelerator 도구를 통해서든, 각자의 좋아하는 장치를 사용하는 팀이 같은 장면에서 함께 작업하든 상관없이 말입니다. 그리고 이것은 시작에 불과합니다. NVIDIA와 협력하여 SIEMENS Xcelerator 포트폴리오 전반에 걸쳐 가속 컴퓨팅, 생성형 AI 및 Omniverse 통합을 도입할 것입니다.* SIEMENS NX : 제품 설계, 시뮬레이션, 제조를 위한 통합 솔루션 ex CAD(3D 모델링), CAM(제조 공정을 위한 툴), CAE(제품 성능 예측, 최적화하는 시뮬레이션 도구)* STAR-CCM+ : 유체역학(CFD) 및 다중물리 시뮬레이션 소프트웨어 Nissan과 다른 파트너사들 / Vision Pro 동영상 (1:42:24)
Jensen Huang: 프로 성우는 우연히 Siemens의 CEO인 Roland Busch의 절친한 친구입니다. 옴니버스를 워크플로우에 연결하면 설계부터 엔지니어링, 제조 계획, 디지털 트윈 운영까지 에코시스템이 구현됩니다. 한 번 모든 것을 연결시키면 어느 정도의 생산성을 얻을 수 있는가 몰상식합니다 정말 멋진 일이에요. 갑자기 누구나 같은 지상의 진실에 따라 행동하게 됩니다. 데이터를 교환하거나 변환할 필요는 없습니다. 디자인 부문부터 아트 부문, 건축 부문, 엔지니어링 부문, 마케팅 부문까지 모두가 같은 지상의 진실에 임하고 있습니다. Nissan이 Omniverse를 어떻게 워크플로우에 포함시켰는지 살펴봅시다. 그것은 모두 훌륭한 도구와 우리가 협력하고 있는 개발자에 의해 연결되어 있기 때문입니다. 봅시다. 젠슨 황 : 목소리의 주인공 롤랜드 부쉬(Roland Busch)는 저의 좋은 친구이며, 지멘스의 CEO이기도 합니다。 일단 옴니버스가 여러분의 작업 흐름, 생태계, 설계 초기부터 엔지니어링, 제조 계획, 디지털 트윈 운영에 이르기까지 연결되면, 정말 놀랍습니다. 모든 것을 하나로 연결하면, 얼마나 많은 생산성을 얻을 수 있는지, 말도 안 됩니다. 갑자기 모든 사람들이 동일한 사실을 기반으로 작업을 하게 됩니다。 데이터를 교환하고 변환하면서 실수를 할 필요가 없습니다. 모두가 동일한 사실을 바탕으로 작업을 진행하고 있습니다. 디자인 부서, 아트 부서, 건축 부서에서부터 엔지니어링 부서, 심지어 마케팅 부서까지도 말이죠。 닛산이 어떻게 Omniverse를 그들의 워크플로우에 통합했는지 살펴보겠습니다. 이 모든 것은 훌륭한 도구들과 함께 일하고 있는 개발자들 덕분에 가능합니다. 영상을 한번 보시 죠. Jensen Huang: 프로 성우는 우연히 Siemens의 CEO인 Roland Busch의 절친한 친구입니다. 옴니버스를 워크플로우에 연결하면 설계부터 엔지니어링, 제조 계획, 디지털 트윈 운영까지 에코시스템이 구현됩니다. 한 번 모든 것을 연결시키면 어느 정도의 생산성을 얻을 수 있는가 몰상식합니다 정말 멋진 일이에요. 갑자기 누구나 같은 지상의 진실에 따라 행동하게 됩니다. 데이터를 교환하거나 변환할 필요는 없습니다. 디자인 부문부터 아트 부문, 건축 부문, 엔지니어링 부문, 마케팅 부문까지 모두가 같은 지상의 진실에 임하고 있습니다. Nissan이 Omniverse를 어떻게 워크플로우에 포함시켰는지 살펴봅시다. 그것은 모두 훌륭한 도구와 우리가 협력하고 있는 개발자에 의해 연결되어 있기 때문입니다. 봅시다. 젠슨 황 : 목소리의 주인공 롤랜드 부쉬(Roland Busch)는 저의 좋은 친구이며, 지멘스의 CEO이기도 합니다。 일단 옴니버스가 여러분의 작업 흐름, 생태계, 설계 초기부터 엔지니어링, 제조 계획, 디지털 트윈 운영에 이르기까지 연결되면, 정말 놀랍습니다. 모든 것을 하나로 연결하면, 얼마나 많은 생산성을 얻을 수 있는지, 말도 안 됩니다. 갑자기 모든 사람들이 동일한 사실을 기반으로 작업을 하게 됩니다。 데이터를 교환하고 변환하면서 실수를 할 필요가 없습니다. 모두가 동일한 사실을 바탕으로 작업을 진행하고 있습니다. 디자인 부서, 아트 부서, 건축 부서에서부터 엔지니어링 부서, 심지어 마케팅 부서까지도 말이죠。 닛산이 어떻게 Omniverse를 그들의 워크플로우에 통합했는지 살펴보겠습니다. 이 모든 것은 훌륭한 도구들과 함께 일하고 있는 개발자들 덕분에 가능합니다. 영상을 한번 보시죠.
Previous image Next image 좀 더 질감있는 그레이가 좋은/ 훌륭한 선택입니다 Previous image Next image 좀 더 질감있는 그레이가 좋은/ 훌륭한 선택입니다
주위에 칙칙한 보라색 기하학적 결정이 있는 추상적인 배경과 보라색 색조 주위에 칙칙한 보라색 기하학적 결정이 있는 추상적인 배경과 보라색 색조
시카고 라인 스니커즈(시카고 유명 건물, 도시 실루엣을 스니커즈 외관에 프린트) 시카고 라인 스니커즈(시카고 유명 건물, 도시 실루엣을 스니커즈 외관에 프린트)
Jensen Huang : That was not an animation, that was Omniverse, today we’re announcing that Omniverse Cloud streams to The Vision Pro. 이것은 애니메이션이 아닙니다. 지금까지 옴니버스였습니다. 그리고 오늘 옴니버스 클라우드가 비전 프로에 스트리밍된다는 것을 발표합니다. Jensen Huang : That was not an animation, that was Omniverse, today we’re announcing that Omniverse Cloud streams to The Vision Pro. 이것은 애니메이션이 아닙니다. 지금까지 옴니버스였습니다. 그리고 오늘 옴니버스 클라우드가 비전 프로에 스트리밍된다는 것을 발표합니다.
신기하게도 가상문 주위를 걷다보면 내가 차에서 내릴 때 모두가 하고 있는 것입니다 정말 대단한 일이에요. Vision Pro는 Omniverse 포털에 접속하여 Omniverse에 접속합니다. 이러한 모든 CAD 도구 및 이러한 다양한 설계 도구가 통합되어 Omniverse에 연결되어 있기 때문입니다. 이러한 워크플로우를 실현할 수 있어 정말 멋진 일입니다. 그리고 제가 그 차에서 내릴 때 가상의 문 주변을 걸어 다니는 것은 매우 낯선 일입니다. 그리고 제가 그 차에서 내릴 때, 그리고 모든 사람들이 그 일을 하는 것은 정말 놀라운 일입니다. 비전 프로는 여러분을 옴니버스 포털로 연결시켰습니다. 그리고 이 모든 CAD 도구들과 다양한 설계 도구들이 이제 옴니버스에 통합되고 연결되기 때문입니다. 여러분은 이런 종류의 작업 흐름을 정말 믿을 수 없습니다. 로보틱스 1:44:48 입니다 신기하게도 가상문 주위를 걷다보면 내가 차에서 내릴 때 모두가 하고 있는 것입니다 정말 대단한 일이에요. Vision Pro는 Omniverse 포털에 접속하여 Omniverse에 접속합니다. 이러한 모든 CAD 도구 및 이러한 다양한 설계 도구가 통합되어 Omniverse에 연결되어 있기 때문입니다. 이러한 워크플로우를 실현할 수 있어 정말 멋진 일입니다. 그리고 제가 그 차에서 내릴 때 가상의 문 주변을 걸어 다니는 것은 매우 낯선 일입니다. 그리고 제가 그 차에서 내릴 때, 그리고 모든 사람들이 그 일을 하는 것은 정말 놀라운 일입니다. 비전 프로는 여러분을 옴니버스 포털로 연결시켰습니다. 그리고 이 모든 CAD 도구들과 다양한 설계 도구들이 이제 옴니버스에 통합되고 연결되기 때문입니다. 여러분은 이런 종류의 작업 흐름을 정말 믿을 수 없습니다. 로보틱스 1:44:48 입니다
로봇 공학에 대해 이야기합시다 움직이는 것은 모두 로봇이 됩니다. 그것에 대해서는 의문의 여지가 없습니다. 더 안전하고 편리하며, 가장 큰 산업 중 하나는 자동차 산업이 될 것입니다. 전술한 바와 같이 로봇 스택을 위에서 아래로 구축합니다. 자율주행의 경우는 자율주행 애플리케이션을 포함한 자율주행차의 경우입니다. 올해 말이나 내년 초에 우리는 메르세데스로 출고하고, 그 후 바로 JLR(재규어 랜드로버)로 출고합니다. 자율형 로봇 시스템은 소프트웨어에 정의되어 있어 매우 많은 작업이 필요합니다 컴퓨터 비전은 분명히 인공 지능 제어와 계획을 가지고 모든 매우 복잡한 기술을 가지고 개량하는 데 몇 년이 걸립니다. 스택 전체를 구축하고 있습니다. 그러나 모든 자동차 업계에서 스택 전체를 개방하는 것은 바로 우리가 일하는 방법입니다. 우리는 모든 업계에서 가능한 한 많은 것을 만들고 그것을 이해하려고 합니다. 그러나 우리는 그것을 개방하여 누구나 접근할 수 있도록 합니다. 당신이 우리 컴퓨터만 구입하고 싶은지 아닌지에 관계없이, 이는 이 기능적으로 안전한 ASIL-D 품질의 컴퓨터 또는 운영 체제를 AI 상에서 실행할 수 있는 세계 유일의 완전한 기능 저장 ASIL-D 시스템이며, 기본적으로 전 세계 모든 EV 회사에 있는 당사의 데이터 센터입니다. 하지만 당신이 그것을 즐기고 싶다면 우리는 그것을 구입하는 것을 기쁘게 생각합니다. 로보틱스에 대해 이야기하겠습니다. 움직이는 모든 것은 로봇이 될 것입니다. 여기에 대해선 의문의 여지가 없습니다. 더 안전하고, 더 편리해질 것입니다. 가장 큰 산업 중 하나는 자동차가 될 것입니다. 우리는 상위 레벨(소프트웨어,ai 모델)부터 하위 레벨(하드웨어)까지 모든 계층을 포함한 로봇 스택을 만듭니다. 자율주행 애플리케이션을 포함한 자율주행 자동차의 경우, 올해 말이나 내년 초에, 우리는 메르세데스-벤츠에 탑재될 것이고, 그 직후 JLR(재규어 랜드로버)에 탑재될 것입니다. 자율주행 로봇 시스템은 소프트웨어로 정의되고, 해야 할 많은 작업이 필요하며, 컴퓨터 비전은 명백하게 인공 지능, 제어 및 계획, 모든 종류의 매우 복잡한 기술을 가지고 있으며, 정교화하는 데 몇 년이 걸립니다. 하지만 우리는 전체 스택을 만들고 있습니다. 우리는 자동차 산업에 전체 스택을 제공하며, 이것이 바로 우리가 일하는 방식입니다. 우리는 모든 산업에서 최대한 많은 부분을 직접 구축하려고 노력하여 그것을 완전히 이해합니다. 하지만 그런 다음에는 모든 사람들이 접근할 수 있도록 제공합니다. 여러분이 AI를 실행할 수 있는 세계 유일의 완전한 자율주행기능의 안전한 ASIL-D 시스템인 우리의 컴퓨터만 구매하고 싶든, 그 위에 운영체제를 원하든, 우리의 데이터 센터를 사용하고 싶든, 원하는 방식으로 이용할 수 있도록 합니다。 여러분이 그것을 즐기고 구매하는 것에 우리는 기쁩니다. 오늘 세계 최대 EV 회사 BYD가 차세대 Tor를 채용한다고 발표합니다. 토르는 트랜스포머 엔진용으로 설계되어 있습니다. 토르, 차세대 EV 컴퓨터는 BYD가 사용할 예정입니다. 오늘은 세계에서 가장 큰 전기차 회사인 BYD가 차세대 토르를 도입함을 발표합니다. 토르는 트랜스포머 엔진용으로 설계되었습니다. 차세대 EV 컴퓨터인 토르를 BYD가 사용할 것입니다. 로봇 공학에 대해 이야기합시다 움직이는 것은 모두 로봇이 됩니다. 그것에 대해서는 의문의 여지가 없습니다. 더 안전하고 편리하며, 가장 큰 산업 중 하나는 자동차 산업이 될 것입니다. 전술한 바와 같이 로봇 스택을 위에서 아래로 구축합니다. 자율주행의 경우는 자율주행 애플리케이션을 포함한 자율주행차의 경우입니다. 올해 말이나 내년 초에 우리는 메르세데스로 출고하고, 그 후 바로 JLR(재규어 랜드로버)로 출고합니다. 자율형 로봇 시스템은 소프트웨어에 정의되어 있어 매우 많은 작업이 필요합니다 컴퓨터 비전은 분명히 인공 지능 제어와 계획을 가지고 모든 매우 복잡한 기술을 가지고 개량하는 데 몇 년이 걸립니다. 스택 전체를 구축하고 있습니다. 그러나 모든 자동차 업계에서 스택 전체를 개방하는 것은 바로 우리가 일하는 방법입니다. 우리는 모든 업계에서 가능한 한 많은 것을 만들고 그것을 이해하려고 합니다. 그러나 우리는 그것을 개방하여 누구나 접근할 수 있도록 합니다. 당신이 우리 컴퓨터만 구입하고 싶은지 아닌지에 관계없이, 이는 이 기능적으로 안전한 ASIL-D 품질의 컴퓨터 또는 운영 체제를 AI 상에서 실행할 수 있는 세계 유일의 완전한 기능 저장 ASIL-D 시스템이며, 기본적으로 전 세계 모든 EV 회사에 있는 당사의 데이터 센터입니다. 하지만 당신이 그것을 즐기고 싶다면 우리는 그것을 구입하는 것을 기쁘게 생각합니다. 로보틱스에 대해 이야기하겠습니다. 움직이는 모든 것은 로봇이 될 것입니다. 여기에 대해선 의문의 여지가 없습니다. 더 안전하고, 더 편리해질 것입니다. 가장 큰 산업 중 하나는 자동차가 될 것입니다. 우리는 상위 레벨(소프트웨어,ai 모델)부터 하위 레벨(하드웨어)까지 모든 계층을 포함한 로봇 스택을 만듭니다. 자율주행 애플리케이션을 포함한 자율주행 자동차의 경우, 올해 말이나 내년 초에, 우리는 메르세데스-벤츠에 탑재될 것이고, 그 직후 JLR(재규어 랜드로버)에 탑재될 것입니다. 자율주행 로봇 시스템은 소프트웨어로 정의되고, 해야 할 많은 작업이 필요하며, 컴퓨터 비전은 명백하게 인공 지능, 제어 및 계획, 모든 종류의 매우 복잡한 기술을 가지고 있으며, 정교화하는 데 몇 년이 걸립니다. 하지만 우리는 전체 스택을 만들고 있습니다. 우리는 자동차 산업에 전체 스택을 제공하며, 이것이 바로 우리가 일하는 방식입니다. 우리는 모든 산업에서 최대한 많은 부분을 직접 구축하려고 노력하여 그것을 완전히 이해합니다. 하지만 그런 다음에는 모든 사람들이 접근할 수 있도록 제공합니다. 여러분이 AI를 실행할 수 있는 세계 유일의 완전한 자율주행기능의 안전한 ASIL-D 시스템인 우리의 컴퓨터만 구매하고 싶든, 그 위에 운영체제를 원하든, 우리의 데이터 센터를 사용하고 싶든, 원하는 방식으로 이용할 수 있도록 합니다。 여러분이 그것을 즐기고 구매하는 것에 우리는 기쁩니다. 오늘 세계 최대 EV 회사 BYD가 차세대 Tor를 채용한다고 발표합니다. 토르는 트랜스포머 엔진용으로 설계되어 있습니다. 토르, 차세대 EV 콤피
100만 명 이상의 로봇 개발자가 있다는 사실은 모르실 겁니다. 우리는 이 로봇 컴퓨터에 제트를 만들었습니다. 우리는 그것을 자랑스럽게 생각합니다. 그 위에 있는 소프트웨어의 양은 미쳤습니다. 100% CUDA 호환성이 있기 때문입니다. 우리가 하고 있는 것, 회사에서 하고 있는 것은 모두 개발자를 위한 것입니다. 그리고 우리가 이 풍부한 생태계를 유지하고 당신이 우리에게서 접근하는 모든 것과 호환성을 갖게 함으로써 우리는 이 작은 컴퓨터, 제트슨이라고 불리는 로봇 컴퓨터에 모든 것을 가져올 수 있습니다. 우리는 또한 오늘날 이 믿을 수 없을 정도로 진보된 새로운 SDK를 발표하고 있습니다, 우리는 그것을 Isaac Perceptor라고 부릅니다. 엔비디아의 로보틱스 플랫폼을 이용하는 100만 명이 넘는 로봇 개발자들이 있다는 사실을 잘 모르실 겁니다。 우리는 로봇 컴퓨터 Jeston을 개발했습니다. 정말 자랑스럽습니다. 그 위에 올라가는 소프트웨어의 양은 말도 안됩니다. 하지만 우리가 이를 전부할 수 있는 이유는 100% CUDA 호환이기 때문입니다. 우리가 하는 모든 일, 회사에서 하는 모든 일들은 개발자들에게 도움이 됩니다. 풍부한 생태계를 유지하고 여러분이 접근할 수 있는 모든 것과 호환되도록 함으로써 우리는 이 놀라운 기능들을 이 작은 컴퓨터, 즉 Jetson이라고 부르는 로봇 컴퓨터에 담아낼 수 있습니다. 또한 오늘, 우리는 Isaac Perceptor (아이작 퍼셉터)라고 부르는 놀라울 정도로 진보된 새로운 SDK(소프트웨어 개발 키트)를 발표합니다. 오늘날 대부분의 봇은 사전에 프로그램되어 있으며, 지상의 디지털 레일 상의 레일을 따르거나 April Tags를 따르지만, 미래에는 인식을 갖게 될 것입니다. 그리고 왜 그것을 원하냐면 쉽게 프로그래밍할 수 있도록 하기 위해서 A지점에서 B지점으로 이동하고 싶다고 하고, 그곳을 탐색하는 방법을 찾기 때문입니다. 그래서 웨이포인트를 프로그래밍함으로써 루트 전체가 적응할 수 있게 되었고 환경 전체가 재프로그래밍할 수 있게 되었습니다. 창고 처음에 보여드렸던 것처럼. 사전에 프로그램된 AGV로는 그럴 수 없습니다. 만약 그 박스들이 쓰러지면, 그들은 모두 껌을 감아 올리고 누군가가 그것을 클리어하기를 기다리기만 하면 됩니다. 아이작 퍼셉터의 놀라운 최첨단 비전 오도메트리 3D 재구축과 3D 재구축 깊이 지각이 가능해졌습니다. 그 이유는 세계에서 일어나는 일을 감시하기 위해 두 가지 방법을 가질 수 있기 때문입니다. 오늘날 대부분의 로봇은 사전에 프로그래밍되어 있으며, 이는 지상에 설치된 디지털 레일(지면이나 특정 경로에 따라 로봇이 이동할 수 있도록 미리 설정된 가상의 경로)을 따르거나 AprilTags(시각적 마커로, 로봇이 시각적으로 인식하고 따라갈 수 있는 표식)를 따르는 방식으로 동작합니다. 그러나 미래에는 로봇들이 인식 능력을 갖추게 될 것입니다. 이러한 인식 능력이 필요한 이유는 로봇을 쉽게 프로그래밍할 수 있도록 하기 위함입니다. 예를 들어, “A 지점에서 B 지점으로 이동하세요”라고 명령하면, 로봇이 스스로 경로를 찾아 이동할 수 있게 됩니다. 따라서 단지 웨이 포인트(지점)만 프로그래밍하면, 전체 경로가 유동적으로 조정 될 수 있고, 전체 환경도 재프로그래밍될 수 있습니다. 초반에 영상에서 보여드린 창고처럼요. 초기의 사전 프로그래밍된 AGV(자동 유도 차량)로는 이러한 작업이 불가능합니다. 예를 들어, 박스가 떨어지면 이들 AGV는 멈추고 누군가가 와서 치울 때까지 기다리게 됩니다. 그러나 우리는 Isaac Perceptor와 함께 놀라운 최첨단 비전 오도메트리(시각적 주행 거리 측정)와 3D 재구성을 갖추고 있습니다. 3D 재구성 외에도 깊이 인식 기능이 추가되었습니다. 이는 두 가지 모달리티(카메라+라이다)를 통해 세상에서 일어나는 일을 관찰할 수 있도록 하기 위함입니다.* Issac Perceptor (아이작 퍼셉터) : 다중 카메라, 시각적 주행 거리 측정, 3D 재구성, 점유 지도, 깊이 인식 등의 기능을 가짐 100만 명 이상의 로봇 개발자가 있다는 사실은 모르실 겁니다. 우리는 이 로봇 컴퓨터에 제트를 만들었습니다. 우리는 그것을 자랑스럽게 생각합니다. 그 위에 있는 소프트웨어의 양은 미쳤습니다. 100% CUDA 호환성이 있기 때문입니다. 우리가 하고 있는 것, 회사에서 하고 있는 것은 모두 개발자를 위한 것입니다. 그리고 우리가 이 풍부한 생태계를 유지하고 당신이 우리에게서 접근하는 모든 것과 호환성을 갖게 함으로써 우리는 이 작은 컴퓨터, 제트슨이라고 불리는 로봇 컴퓨터에 모든 것을 가져올 수 있습니다. 우리는 또한 오늘날 이 믿을 수 없을 정도로 진보된 새로운 SDK를 발표하고 있습니다, 우리는 그것을 Isaac Perceptor라고 부릅니다. 엔비디아의 로보틱스 플랫폼을 이용하는 100만 명이 넘는 로봇 개발자들이 있다는 사실을 잘 모르실 겁니다。 우리는 로봇 컴퓨터 Jeston을 개발했습니다. 정말 자랑스럽습니다. 그 위에 올라가는 소프트웨어의 양은 말도 안됩니다. 하지만 우리가 이를 전부할 수 있는 이유는 100% CUDA 호환이기 때문입니다. 우리가 하는 모든 일, 회사에서 하는 모든 일들은 개발자들에게 도움이 됩니다. 풍부한 생태계를 유지하고 여러분이 접근할 수 있는 모든 것과 호환되도록 함으로써 우리는 이 놀라운 기능들을 이 작은 컴퓨터, 즉 Jetson이라고 부르는 로봇 컴퓨터에 담아낼 수 있습니다. 또한 오늘, 우리는 Isaac Perceptor (아이작 퍼셉터)라고 부르는 놀라울 정도로 진보된 새로운 SDK(소프트웨어 개발 키트)를 발표합니다. 오늘날 대부분의 봇은 사전에 프로그램되어 있으며, 지상의 디지털 레일 상의 레일을 따르거나 April Tags를 따르지만, 미래에는 인식을 갖게 될 것입니다. 그리고 왜 그것을 원하냐면 쉽게 프로그래밍할 수 있도록 하기 위해서 A지점에서 B지점으로 이동하고 싶다고 하고, 그곳을 탐색하는 방법을 찾기 때문입니다. 그래서 웨이포인트를 프로그래밍함으로써 루트 전체가 적응할 수 있게 되었고 환경 전체가 재프로그래밍할 수 있게 되었습니다. 창고 처음에 보여드렸던 것처럼. 사전에 프로그램된 AGV로는 그럴 수 없습니다. 만약에 그들이 그랬다면
현재 가장 많이 사용되는 로봇인 아이작 퍼셉터는 매니퓰레이터 제조용 암이며, 그것들도 사전에 프로그래밍되어 있습니다. 컴퓨터 비전 알고리즘, AI 알고리즘, 제어 알고리즘, 경로 플래닝 알고리즘은 기하학적으로 매우 높은 계산량을 인식하고 있습니다. 우리는 이러한 CDUDA를 가속화했습니다. 세계 최초의 CUDA 가속 모션 플래너가 있습니다 기하학적으로 인식하여 뭔가를 앞에 두고 새로운 플랜을 고안하고 그 주위에 관절을 배치하여 3D 오브젝트의 자세 추정에 뛰어난 지각을 가지고 있습니다. 2D 뿐만 아니라 3D에서도 포즈를 취하고 있습니다. 그렇기 때문에 주변에 무엇이 있고 어떻게 그것을 잡는 것이 최선인지 상상해야 합니다. 기초 자세 그립 기초 관절 알고리즘이 현재 이용 가능합니다 아이작 매니퓰레이터라고 불립니다. 또, 엔비디아의 컴퓨터상에서도 동작합니다. 우리는 차세대 로봇 공학에서 정말 훌륭한 일을 하기 시작했습니다. Isaac Perceptor는 오늘날 가장 많이 사용되는 로봇으로, 제조용 팔(manipulator arms)을 다루며 사전 프로그래밍되어 있습니다. 컴퓨터 비전 알고리즘, 인공지능 알고리즘, 제어 및 경로 계획 알고리즘 등은 기하학적 정보를 인식하는데, 이는 매우 높은 연산 능력을 요구합니다. 우리는 이러한 알고리즘들을 CUDA로 가속화했습니다. 그래서 우리는 세계 최초로 기하학적 정보를 인식하는 CUDA 가속화 모션 플래너를 만들었습니다. 이는 물체가 로봇 앞에 놓이면 새로운 계획을 세우고, 그 주위를 움직이며, 3D 객체의 자세 추정을 위한 뛰어난 인식 능력을 갖추고 있습니다. 2D에서의 자세뿐만 아니라 3D에서의 자세도 추정합니다. 따라서 로봇은 주변을 상상하고, 물체를 잡기 위한 최적의 방법을 찾아야 합니다. 이 기본 자세, 그립 기본 설정, 그리고 관절 알고리즘은 이제 이용 가능하며, 이를 우리는 Isaac Manipulator라고 부릅니다. 이들은 모두 NVIDIA의 컴퓨터에서 실행됩니다. 우리는 차세대 로봇공학에서 정말 훌륭한 작업을 시작하고 있습니다. 정리하자면, 1) Isaac Perceptor (AI 시스템 DGX) : 로봇 인식 능력 향상을 위한 최신 SDK (소프트웨어 개발 키트). 비전 인식, Depth 인식, 3D재구성, 경로 계획 가능2) Isaac Manipulator (젯슨 플랫폼 AGX) : 로봇 팔을 위한 SDK(소프트웨어 개발 키트). 로봇 팔 동작을 제어하고 최적화할 수 있는 도구들 제공。 장애물 인식 및 회피, 물체를 잡기 위해 적합한 위치, 자세 계산하도록 돕는 자세추정, 주변환경의 기하학정보 인식, 객체를 잡는 최적 방법 계산 및 다양한 형태의 물체를 조작할 수 있도록 하는 기능들 3) Isaac SIM (옴니버스 OVX) : 로봇 시뮬레이션 플랫폼。 가상 환경 제공, 로봇 모델링 등 휴머노이드 봇 현재 가장 많이 사용되는 로봇인 아이작 퍼셉터는 매니퓰레이터 제조용 암이며, 그것들도 사전에 프로그램되어 있습니다. 컴퓨터 비전 알고리즘, AI 알고리즘, 제어 알고리즘, 경로 플래닝 알고리즘은 기하학적으로 매우 높은 계산량을 인식하고 있습니다. 우리는 이러한 CDUDA를 가속화했습니다. 세계 최초의 CUDA 가속 모션 플래너가 있습니다 기하학적으로 인식하여 뭔가를 앞에 두고 새로운 플랜을 고안하고 그 주위에 관절을 배치하여 3D 오브젝트의 자세 추정에 뛰어난 지각을 가지고 있습니다. 2D 뿐만 아니라 3D에서도 포즈를 취하고 있습니다. 그렇기 때문에 주변에 무엇이 있고 어떻게 그것을 잡는 것이 최선인지 상상해야 합니다. 기초 자세 그립 기초 관절 알고리즘이 현재 이용 가능합니다 아이작 매니퓰레이터라고 불립니다. 또, 엔비디아의 컴퓨터상에서도 동작합니다. 우리는 차세대 로봇 공학에서 정말 훌륭한 일을 하기 시작했습니다. Isaac Perceptor는 오늘날 가장 많이 사용되는 로봇으로, 제조용 팔(manipulator arms)을 다루며 사전 프로그래밍되어 있습니다. 컴퓨터 비전 알고리즘, 인공지능 알고리즘, 제어 및 경로 계획 알고리즘 등은 기하학적 정보를 인식하는데, 이는 매우 높은 연산 능력을 요구합니다. 우리는 이러한 알고리즘들을 CUDA로 가속화했습니다. 그래서 우리는 세계 최초로 기하학적 정보를 인식하는 CUDA 가속화 모션 플래너를 만들었습니다. 이는 물체가 로봇 앞에 놓이면 새로운 계획을 세우고, 그 주위를 움직이며, 3D 객체의 자세 추정을 위한 뛰어난 인식 능력을 갖추고 있습니다. 2D에서의 자세뿐만 아니라 3D에서의 자세도 추정합니다. 따라서 로봇은 주변을 상상하고, 물체를 잡기 위한 최적의 방법을 찾아야 합니다. 이 기본 자세, 그립 기본 설정, 그리고 관절 알고리즘은 이제 이용 가능하며, 이를 우리는 Isaac Manipulator라고 부릅니다. 이들은 모두 NVIDIA의 컴퓨터에서 실행됩니다. 우리는 차세대 로봇공학에서 정말 훌륭한 작업을 시작하고 있습니다. 정리하자면, 1) Isaac Perceptor (AI 시스템 DGX) : 로봇 인식 능력 향상을 위한 최신 SDK (소프트웨어 개발 키트). 비전 인식, Depth 인식, 3D재구성, 경로 계획 가능2) Isaac Manipulator (젯슨 플랫폼 AGX) : 로봇 팔을 위한 SDK(소프트웨어 개발 키트). 로봇 팔 동작을 제어하고 최적화할 수 있는 도구들 제공。 장애물 인식 및 회피, 물체를 잡기 위해 적합한 위치, 자세 계산하도록 돕는 자세추정, 주변환경의 기하학정보 인식, 객체를 잡는 최적 방법 계산 및 다양한 형태의 물체를 조작할 수 있도록 하는 기능들 3) Isaac SIM (옴니버스 OVX) : 로봇 시뮬레이션 플랫폼。 가상 환경 제공, 로봇 모델링 등 휴머노이드 로봇
차세대 로보틱스는 아마 휴머노이드 로보틱스가 될 것입니다. 우리는 지금 필요한 기술을 손에 넣었습니다, 그리고 제가 전에 말했듯이. 인간 로봇을 상상하는 데 필요한 기술입니다. 어떻게 보면 인간 로봇 공학이 더 쉬운 법입니다 그 이유는 로봇에게 제공할 수 있는 모방 훈련 데이터가 훨씬 많기 때문입니다. 왜냐하면 우리는 매우 비슷한 방법으로 구축되어 있기 때문입니다. 인간의 로봇 공학은 우리 세계에서 훨씬 더 도움이 될 것입니다. 왜냐하면 우리는 세계를 상호 운용하고 잘 기능하도록 창조했기 때문입니다. 그리고 우리가 워크스테이션이나 제조, 물류를 인간을 위해 설계한 방법, 그것들은 인간을 위해 설계된 것이기 때문입니다, 따라서 이러한 인간 로봇은 도입하는 데 훨씬 더 생산적일 것입니다. 우리가 다른 사람들과 마찬가지로 스택 전체를 만드는 동안 비디오나 인간의 예를 보고 배우는 기초 모델을 만들고 비디오나 가상현실의 형태로 그것을 만들기 위해 아이작 강화학습 헬스장을 만들었습니다, 휴머노이드 로봇이 물리적 세계에 적응하는 방법을 배울 수 있습니다 그리고 멋진 컴퓨터입니다 로봇 자동차에 탑승하는 컴퓨터입니다 이 컴퓨터는 인간이나 로봇 ‘쏘’ 안에서 작동합니다 트랜스포머 엔진용으로 설계되어 있습니다. 우리는 이 중 몇 가지를 하나의 비디오로 정리했습니다. 여러분들이 정말 좋아하게 되는 거예요. 봅시다. 차세대 로봇공학은 아마도 휴머노이드 로봇일 것입니다. 우리는 이제 필요한 기술을 갖추었으며, 앞서 설명한 바와 같이 일반화된 휴머노이드 로봇을 상상할 수 있는 필요한 기술을 보유하고 있습니다. 휴머노이드 로봇은 아마도 더 쉽게 개발될 가능성이 높습니다. 그 이유는 우리가 그 로봇에게 제공할 수 있는 모방 훈련 데이터가 훨씬 더 많기 때문입니다. 우리는 매우 유사한 방식으로 구성되어 있기 때문입니다. 휴머노이드 로봇이 우리의 세계에서 훨씬 더 유용할 가능성이 높습니다. 왜냐하면 우리가 이 세계를 상호 작용하고 잘 작업할 수 있도록 만들었기 때문입니다. 우리가 작업장을 설정하고 제조 및 물류를 설계할 때 인간을 위해 설계했습니다. 따라서 휴머노이드 로봇은 배치되었을 때 훨씬 더 생산적일 가능성이 높습니다. 우리가 다른 분야에서 했던 것처럼, 우리는 전체 스택을 구축하고 있습니다. 가장 위에서부터 시작하여 ①비디오, 인간 예시를 통해 학습하는 기반 모델을 만들고 있습니다. 이는 비디오 형태일 수도 있고 가상 현실 형태일 수도 있습니다. 그런 다음 ②Isaac 강화 학습 체육관이라는 체육관을 만들어 휴머노이드 로봇이 물리적 세계에 적응하는 방법을 배울 수 있도록 했습니다. 그리고 ③Thor라는 놀라운 컴퓨터가 휴머노이드 로봇 내부에서 작동할 것입니다. 토르는 자율주행차에 들어갈 컴퓨터와 동일합니다. 이 컴퓨터는 Transformer 엔진용으로 설계되었습니다. 우리는 이러한 여러 요소를 하나의 영상으로 결합했습니다. 여러분이 정말로 좋아할 것입니다. 영상을 한번 보시죠。엔비디아의 휴머노이드 로봇 풀스택① GROOT 파운데이션 모델 (DGX) = 비디오 또는 가상현실을 통해 인간 예시를 학습② ISAK LAB IN OMNIVERSER (OVX) = 아이ザック 강화 학습 체육관 ③ GROOT STACK (AGX) = Tor 차세대 로보틱스는 아마 휴머노이드 로보틱스가 될 것입니다. 우리는 지금 필요한 기술을 손에 넣었습니다, 그리고 제가 전에 말했듯이. 인간 로봇을 상상하는 데 필요한 기술입니다. 어떻게 보면 인간 로봇 공학이 더 쉬운 법입니다 그 이유는 로봇에게 제공할 수 있는 모방 훈련 데이터가 훨씬 많기 때문입니다. 왜냐하면 우리는 매우 비슷한 방법으로 구축되어 있기 때문입니다. 인간의 로봇 공학은 우리 세계에서 훨씬 더 도움이 될 것입니다. 왜냐하면 우리는 세계를 상호 운용하고 잘 기능하도록 창조했기 때문입니다. 그리고 우리가 워크스테이션이나 제조, 물류를 인간을 위해 설계한 방법, 그것들은 인간을 위해 설계된 것이기 때문입니다, 따라서 이러한 인간 로봇은 도입하는 데 훨씬 더 생산적일 것입니다. 우리가 다른 사람들과 마찬가지로 스택 전체를 만드는 동안 비디오나 인간의 예를 보고 배우는 기초 모델을 만들고 비디오나 가상현실의 형태로 그것을 만들기 위해 아이작 강화학습 헬스장을 만들었습니다, 휴머노이드 로봇이 물리적 세계에 적응하는 방법을 배울 수 있습니다 그리고 멋진 컴퓨터입니다 로봇 자동차에 탑승하는 컴퓨터입니다 이 컴퓨터는 인간이나 로봇 ‘쏘’ 안에서 작동합니다 트랜스포머 엔진용으로 설계되어 있습니다. 우리는 이 중 몇 가지를 하나의 비디오로 정리했습니다. 여러분들이 정말 좋아하게 되는 거예요. 봅시다. 차세대 로봇공학은 아마도 휴머노이드 로봇일 것입니다. 우리는 이제 필요한 기술을 갖추었으며, 앞서 설명한 바와 같이 일반화된 휴머노이드 로봇을 상상할 수 있는 필요한 기술을 보유하고 있습니다. 휴머노이드 로봇은 아마도 더 쉽게 개발될 가능성이 높습니다. 그 이유는 우리가 그 로봇에게 제공할 수 있는 모방 훈련 데이터가 훨씬 더 많기 때문입니다. 우리는 매우 유사한 방식으로 구성되어 있기 때문입니다. 휴머노이드 로봇이 우리의 세계에서 훨씬 더 유용할 가능성이 높습니다. 왜냐하면 우리가 이 세계를 상호 작용하고 잘 작업할 수 있도록 만들었기 때문입니다. 우리가 작업장을 설정하고 제조 및 물류를 설계할 때 인간을 위해 설계했습니다. 따라서 휴머노이드 로봇은 배치되었을 때 훨씬 더 생산적일 가능성이 높습니다. 우리가 다른 분야에서 했던 것처럼, 우리는 전체 스택을 구축하고 있습니다. 가장 위에서부터 시작하여 ①비디오, 인간 예시를 통해 학습하는 기반 모델을 만들고 있습니다. 이는 비디오 형태일 수도 있고 가상 현실 형태일 수도 있습니다. 그런 다음 ②Isaac 강화 학습 체육관이라는 체육관을 만들어 휴머노이드 로봇이 물리적 세계에 적응하는 방법을 배울 수 있도록 했습니다. 그리고 ③Thor라는 놀라운 컴퓨터가 휴머노이드 로봇 내부에서 작동할 것입니다. 토르는 자율주행차에 들어갈 컴퓨터와 동일합니다. 이 컴퓨터는 Transformer 엔진용으로 설계되었습니다. 우리는 이러한 여러 요소를 하나의 영상으로 결합했습니다. 여러분이 정말로 좋아할 것입니다. 영상을 한번 보시죠。엔비디아의 휴머노이드 로봇 풀스택① GROOT 파운데이션 모델 (DGX) = 비디오 또는 가
(動画 1:51:05) It’s not enough for humans to imagine. we have to invent. and explore real. and push beyond what’s been done. fair amount of detail. 인간이 상상하는 것만으로는 충분하지 않습니다. 우리는 발명하고 현실을 탐구해야 합니다. 그리고 상당한 세부사항을 수행한 것 이상으로 추진해야 합니다. (動画 1:51:05) It’s not enough for humans to imagine. we have to invent. and explore real. and push beyond what’s been done. fair amount of detail. 인간이 상상하는 것만으로는 충분하지 않습니다. 우리는 발명하고 현실을 탐구해야 합니다. 그리고 상당한 세부사항을 수행한 것 이상으로 추진해야 합니다.
We create smarter, and faster. we push it to fail. so it can learn. 우리는 더 똑똑하고 빠르게 창조합니다. 우리는 그것을 실패로 몰아갑니다. 그래서 그것은 학습할 수 있습니다. We create smarter, and faster. we push it to fail. so it can learn. 우리는 더 똑똑하고 빠르게 창조합니다. 우리는 그것을 실패로 몰아갑니다. 그래서 그것은 학습할 수 있습니다.
We teach it, then help it teach itself. 우리는 그것을 가르치고, 다음에 그것이 스스로 가르치는 것을 돕습니다. We teach it, then help it teach itself. 우리는 그것을 가르치고, 다음에 그것이 스스로 가르치는 것을 돕습니다.
We broaden its understanding, to take on new challenges, with absolute precision, and succeed. 우리는 이해의 폭을 넓히고 새로운 도전에 절대적으로 정확하게 임하여 성공합니다. We broaden its understanding, to take on new challenges, with absolute precision, and succeed. 우리는 이해의 폭을 넓히고 새로운 도전에 절대적으로 정확하게 임하여 성공합니다.
We make it perceive, and move, and even reason, so it can share our world with us. 우리는 그것이 우리와 세계를 공유할 수 있도록 지각하고, 움직이고, 심지어 이성을 갖게 합니다. We make it perceive, and move, and even reason, so it can share our world with us. 우리는 그것이 우리와 세계를 공유할 수 있도록 지각하고, 움직이고, 심지어 이성을 갖게 합니다.
this is where inspiration leads us the next frontier. 영감이 우리를 다음 개척지로 인도하는 곳입니다. this is where inspiration leads us the next frontier. 영감이 우리를 다음 개척지로 인도하는 곳입니다.
이는 휴머노이드 로봇 학습을 위한 범용 기반 모델인 엔비디아 프로젝트 GR00T입니다. 이는 휴머노이드 로봇 학습을 위한 범용 Foundation Model 인 NVIDIA Project GR00T 입 다 이는 휴머노이드 로봇 학습을 위한 범용 기반 모델인 엔비디아 프로젝트 GR00T입니다. 이는 휴머노이드 로봇 학습을 위한 범용 Foundation Model 인 NVIDIA Project GR00T 입 다
The GR00T model takes multimodal instructions, and past interactions as input, and produces the next action for the robot to execute. GR00T 모델은 멀티모달 명령과 과거 상호작용을 입력으로 받아 로봇이 수행하는 다음 작업을 생성합니다. The GR00T model takes multimodal instructions, and past interactions as input, and produces the next action for the robot to execute. GR00T 모델은 멀티모달 명령과 과거 상호작용을 입력으로 받아 로봇이 수행하는 다음 작업을 생성합니다.
We developed Isaac lab, a robot learning application to train GR00T. Omniverse Isaac Sim and we scale out with OSMO a new compute orchestration service that coordinates workflows across DGX systems for training, and OVX systems for simulation.우리는 GR00T를 훈련시키기 위해 Isaac Lab이라는 로봇 학습 애플리케이션을 개발했습니다。 Omniverse Isaac Simと共にこれを使用し、新しいコンピューティングオーケストレーションサービスであるOSMOを通じてDGXシステムでの訓練とOVXシステムでのシミュレーションを調整するワークフローを調整します* OSMO:ハイブリッドクラウドワークフローオーケストレーションプラットフォームで、様々な環境でワークロードを簡単に拡張できるように設計され、複数のコンピューティングノードで多段階作業を設定·管理可能。 We developed Isaac lab, a robot learning application to train GR00T. Omniverse Isaac Sim and we scale out with OSMO a new compute orchestration service that coordinates workflows across DGX systems for training, and OVX systems for simulation.우리는 GR00T를 훈련시키기 위해 Isaac Lab이라는 로봇 학습 애플리케이션을 개발했습니다。 Omniverse Isaac Simと共にこれを使用し、新しいコンピューティングオーケストレーションサービスであるOSMOを通じてDGXシステムでの訓練とOVXシステムでのシミュレーションを調整するワークフローを調整します* OSMO:ハイブリッドクラウドワークフローオーケストレーションプラットフォームで、様々な環境でワークロードを簡単に拡張できるように設計され、複数のコンピューティングノードで多段階作業を設定·管理可能。
With these tools, we can train GR00T in physically based simulation, and transfer zero shot to the real world. 이러한 툴을 사용하면 물리 기반 시뮬레이션으로 GR00T를 훈련하고 실제 세계로 제로샷 전이(새로운 상황에서 작업을 수행하는 능력)가 가능합니다. With these tools, we can train GR00T in physically based simulation, and transfer zero shot to the real world. 이러한 툴을 사용하면 물리 기반 시뮬레이션으로 GR00T를 훈련하고 실제 세계로 제로샷 전이(새로운 상황에서 작업을 수행하는 능력)가 가능합니다.
The GR00T model will enable a robot to learn from a handful of human demonstrations, so it can help with everyday tasks, and emulate human movement just by observing us。GR00Tモデルはロボットが少数の人間の試演を通じて学習できるようにし、日常的な作業を助け、私たちを観察するだけでも人間の動きを模倣することができます。 The GR00T model will enable a robot to learn from a handful of human demonstrations, so it can help with everyday tasks, and emulate human movement just by observing us。GR00Tモデルはロボットが少数の人間の試演を通じて学習できるようにし、日常的な作業を助け、私たちを観察するだけでも人間の動きを模倣することができます。
이는 비디오, 훈련 모델, 시뮬레이션을 통해 인간을 이해하고 궁극적으로 물리적 로봇에 직접 도입하는 엔비디아의 기술에 의해 가능해집니다. GR00T를 대규모 언어 모델에 연결함으로써 자연어 명령에 따라 모션을 생성하는 것도 가능해집니다. 이는 엔비디아의 기술을 통해 가능하며, 영상, 훈련 모델 및 시뮬레이션을 통해 인간을 이해하고 궁극적으로 물리적 로봇에 직접 배치할 수 있습니다. GR00T을 대형 언어 모델에 연결하면 자연어 명령을 따라 모션을 생성할 수도 있습니다. 이는 비디오, 훈련 모델, 시뮬레이션을 통해 인간을 이해하고 궁극적으로 물리적 로봇에 직접 도입하는 엔비디아의 기술에 의해 가능해집니다. GR00T를 대규모 언어 모델에 연결함으로써 자연어 명령에 따라 모션을 생성하는 것도 가능해집니다. 이는 엔비디아의 기술을 통해 가능하며, 영상, 훈련 모델 및 시뮬레이션을 통해 인간을 이해하고 궁극적으로 물리적 로봇에 직접 배치할 수 있습니다. GR00T을 대형 언어 모델에 연결하면 자연어 명령을 따라 모션을 생성할 수도 있습니다.
인간: “하이 GL1, 하이파이브 해줄래요?” / GL1:「물론, 하이파이브 합시다」Human:「쿨한 움직임을 보여주지 않겠습니까?」/GL1:「물론 이것을 체크해 주세요. “사람 : “안녕 GL1, 하이파이브 해줄 수 있나요?” / GL1 : “그럼 하이파이브 해요.”사람 : “멋진 움직임을 보여주실 수 있나요?” / GL1 : “물론이죠. “이 모든 놀라운 인텔리전스들은 미래를 위해 구축된 GR00T를 위해 설계된 새로운 Jetson Tor 로봇 칩에 의해 구동됩니다. Isaac Lab, OSMO 및 GR00T에서는 차세대 AI 탑재 로보틱스 구성 요소를 제공하고 있습니다. 이 모든 놀라운 지능은 미래를 위해 만들어진 GR00T를 위해 설계된 새로운 젯슨 토르 로보틱스 칩에 의해 구동됩니다. 우리는 아이작 랩, OSMO 및 GR00T와 함께 차세대 AI 기반 로보틱스의 기본 구성 요소를 제공합니다. * 젯슨 토르 (Jeston Thor) : SoC 휴머노이드 로봇용 컴퓨터. 블랙웰을 중심으로 구성되어 있으며, 연산 속도는 800테라플롭스. 인간: “하이 GL1, 하이파이브 해줄래요?” / GL1:「물론, 하이파이브 합시다」Human:「쿨한 움직임을 보여주지 않겠습니까?」/GL1:「물론 이것을 체크해 주세요. “사람 : “안녕 GL1, 하이파이브 해줄 수 있나요?” / GL1 : “그럼 하이파이브 해요.”사람 : “멋진 움직임을 보여주실 수 있나요?” / GL1 : “물론이죠. “이 모든 놀라운 인텔리전스들은 미래를 위해 구축된 GR00T를 위해 설계된 새로운 Jetson Tor 로봇 칩에 의해 구동됩니다. Isaac Lab, OSMO 및 GR00T에서는 차세대 AI 탑재 로보틱스 구성 요소를 제공하고 있습니다. 이 모든 놀라운 지능은 미래를 위해 만들어진 GR00T를 위해 설계된 새로운 젯슨 토르 로보틱스 칩에 의해 구동됩니다. 우리는 아이작 랩, OSMO 및 GR00T와 함께 차세대 AI 기반 로보틱스의 기본 구성 요소를 제공합니다. * 젯슨 토르 (Jeston Thor) : SoC 휴머노이드 로봇용 컴퓨터. 블랙웰을 중심으로 구성되어 있으며, 연산 속도는 800테라플롭스.
Jensen Huang: 거의 같은 사이즈입니다. 엔비디아의 영혼, 컴퓨터 그래픽, 물리학, 인공지능의 교차점, 그것들 모두가 이 순간을 견디게 되었습니다. 이 프로젝트의 명칭은 “General Robotics 003″입니다. 알아요, 완전 좋아요. 아주 좋아요. 특별한 손님이 있을 거예요. します。젠슨 황 : 거의 같은 크기입니다. NVIDIA의 영혼, 컴퓨터 그래픽스, 물리학, 인공지능의 교차점이 이 순간에 모두 결합되었습니다. 프로젝트의 이름은 General Robotics 003입니다. 제 생각에는 특별한 손님들이 있는 것 같아요. (로봇 등장) Jensen Huang: 거의 같은 사이즈입니다. 엔비디아의 영혼, 컴퓨터 그래픽, 물리학, 인공지능의 교차점, 그것들 모두가 이 순간을 견디게 되었습니다. 이 프로젝트의 명칭은 “General Robotics 003″입니다. 알아요, 완전 좋아요. 아주 좋아요. 특별한 손님이 있을 거예요. します。젠슨 황 : 거의 같은 크기입니다. NVIDIA의 영혼, 컴퓨터 그래픽스, 물리학, 인공지능의 교차점이 이 순간에 모두 결합되었습니다. 프로젝트의 이름은 General Robotics 003입니다. 제 생각에는 특별한 손님들이 있는 것 같아요. (로봇 등장)
So I understand you guys are powered by Jetson. they’re powered by Jetson. little Jetson robotics computers inside. they learn to walk in Isaac Sim. ladies and gentlemen, this this is orange, and this is the famous green. they are the BDX robots of Disney. amazing Disney research. 이 로봇들은 젯슨(ジェソンによって)에 의해 구동됩니다. 안에 있는 작은 젯슨 로봇 컴퓨터가 들어 있습니다. 그들은 아이의 결심에서 걷는 법을 배웁니다. 신사 숙녀 여러분, 오렌지와 녹색입니다. 디즈니의 BDX 로봇입니다. * BDX 드로이드: 디즈니는 2023년에 이족보행 로봇을 미국 디트로이트에서 열린 IEEE IROS(로봇 국제 학술 대회)에서 선보였다. 그 후 디즈니 월드의 스타워즈 존에서 테스트하기도 했다. Nvidia GTC 2024 ロボット内容 So I understand you guys are powered by Jetson. they’re powered by Jetson. little Jetson robotics computers inside. they learn to walk in Isaac Sim. ladies and gentlemen, this this is orange, and this is the famous green. they are the BDX robots of Disney. amazing Disney research. 이 로봇들은 젯슨(ジェソンによって)에 의해 구동됩니다. 안에 있는 작은 젯슨 로봇 컴퓨터가 들어 있습니다. 그들은 아이의 결심에서 걷는 법을 배웁니다. 신사 숙녀 여러분, 오렌지와 녹색입니다. 디즈니의 BDX 로봇입니다. * BDX 드로이드: 디즈니는 2023년에 이족보행 로봇을 미국 디트로이트에서 열린 IEEE IROS(로봇 국제 학술 대회)에서 선보였다. 그 후 디즈니 월드의 스타워즈 존에서 테스트하기도 했다. 엔비디아 GTC 2024 로봇 내용
문맥으로 생각하다: 엔비디아 GTC 2024 엔비디아 CEO Jensen Huang | 어니스트 장 GTC 2024의 기조강연은 글로벌 산업에서 100조달러 이상을 대표하며 컴퓨팅 비용 절감에서 비약적으로 증가하는 컴퓨팅 규모로 초점이 옮겨졌습니다. 이 패러다임 전환은 추론이 아닌 제너레이션이라고 불리며 기존의 데이터 검색 방법에서 제너레이션으로 이행할 것임을 시사합니다···www.ernestchiang.com 맥락에서 생각한다: 엔비디아 GTC 2024 엔비디아 CEO Jensen Huang | 어니스트 장 GTC 2024의 기조강연은 글로벌 산업에서 100조달러 이상을 대표하며 컴퓨팅 비용 절감에서 비약적으로 증가하는 컴퓨팅 규모로 초점이 옮겨졌습니다. 이 패러다임 전환은 추론이 아니라 제너레이션이라고 불리며 기존의 데이터 검색 방법에서 제너레이션으로 이행할 것임을 시사하고 있습니다… www.ernestchiang.com