AI 41

Market Insight Robot (한국)

Global market insight를 살펴 보았다면 이제 범위를 조금 좁혀 한국에서의 로봇 시장에 대한 Insight를 작성해 보았습니다. 1. 로봇의 분류체계2. 로봇의 핵심부품 Market3. Major Player의 장점, 단점 4. 핵심 Insight a.) 초고밀도·저출산이 자동화를 앞당기는 구조– 한국 제조업 로봇 밀도 세계 1위, 그러나 임금·인구 구조상 “사람 대체” 수요 계속 확대. 산업용은 정체, 협동·AMR·서비스가 성장률 견인예상 b.) 부품 국산화– 감속기·서보 국산화율 20 %대에 불과. SBB TECH·LS ELECTRIC 등이 진입하면 제조원가 15–25 % 절감 여력. 정부 ‘소부장 2.0’ 펀드 기회. c.) 대기업 + 스타트업 ‘투 트랙’ 협업– 삼성·LG·SK(물..

카테고리 없음 2025.07.24

Market Insight_ Robot (Global)

Robot Market에 대한 Insight를 조금은 딱딱한 보고서체로 간략하게 공유 드립니다.Gloabl Rotot market Insight 1. 로봇의 분류체계 2. 로봇의 핵심부품 Market 3. Major Player의 장점, 단점 4. 핵심 Insight a.) 국가·노동 구조가 수요를 결정 中 설치량 276 k(’23)로 세계의 51%, 중국 로봇 국산화율 47% → 가격 전쟁과 수직통합이 병행 b.) ‘레고→아이폰’ 패러다임 전환협동·휴머노이드 등 신세그먼트는 음성·제스처 프로그래밍, 원격 OTA 업데이트까지 채택(ABB Lite+) https://www.reuters.com/world/china/abb-expands-robot-line-up-china-tap-mid-sized-custo..

카테고리 없음 2025.07.22

AI Datacenter 에 필요한 Load(부하) 특성 _ Part 6_(LLM Inference)

Part 4 LLM TrainingPart 5 FinetuningPart 6 LLM Inference Part 6에서는 LLM Inference 시의 부하(Load) 변동에 대해서 살펴보도록 하겠습니다.Case 3. LLM Inference Power Consumption: GPT-2 vs. nanoGPT대상 모델: GPT-2, nanoGPT실험 조건: GPU 기반 LLM 추론(inference) 과정의 전력 소모 패턴 분석전력 소모 패턴의 주요 특징1) 급격한 전력 변동공통점: 두 모델 모두 추론 과정에서 저전력(Idle) 상태와 고전력(Active) 상태를 빠르게 오가며, 전력 소모가 급격히 변화함.- 전력 피크: 약 300W까지 순간적으로 상승.- 피크 지속 시간: 25~50초, 표준편차 약 50..

AI Datacenter 에 필요한 Load(부하) 특성 _ Part 6_(LLM Inference)

Part 4 LLM TrainingPart 5 FinetuningPart 6 LLM Inference Part 6에서는 LLM Inference 시의 부하(Load) 변동에 대해서 살펴보도록 하겠습니다.Case 3. LLM Inference Power Consumption: GPT-2 vs. nanoGPT대상 모델: GPT-2, nanoGPT실험 조건: GPU 기반 LLM 추론(inference) 과정의 전력 소모 패턴 분석전력 소모 패턴의 주요 특징1) 급격한 전력 변동공통점: 두 모델 모두 추론 과정에서 저전력(Idle) 상태와 고전력(Active) 상태를 빠르게 오가며, 전력 소모가 급격히 변화함.- 전력 피크: 약 300W까지 순간적으로 상승.- 피크 지속 시간: 25~50초, 표준편차 약 50..

AI Datacenter 에 필요한 Load(부하) 특성 _ Part 5_(Finetuning)

Part 4 LLM TrainingPart 5 FinetuningPart 6 LLM Inference Part 5에서는 Finetuning 시의 부하(Load) 변동에 대해서 살펴보도록 하겠습니다. Case 2. GPT2-Medium 파인튜닝 시 AMD 7900 XTX GPU 전력 소비 패턴GPT2-medium 모델을 AMD 7900 XTX GPU에서 AMD의 가이드에 따라 파인튜닝할 때, 학습 단계별로 뚜렷한 전력 소비 패턴이 나타나며, 전력 소비 그래프(Fig. 13 참조)는 파인튜닝 과정에서 GPU 활용이 어떻게 변화하는지 네 가지 주요 단계를 나타냅니다.단계별 전력 소비 패턴 1. 초기화 및 세팅 단계 (0–350초) - 전력 소비가 일시적으로 급증한 뒤, 낮은 수준으로 떨어짐 - 모..

AI Datacenter 에 필요한 Load(부하) 특성 _ Part 4 (LLM Training)

지난 Part 3에 이어서 동일한 모델로 Case Study 사례를 분석해 보도록 하겠습니다. 앞으로 살펴볼 Load(부하)의 변동은 1) LLM Training, 2) Finetuning, 3) LLM Inferenence(추론) 까지 총 3가지 종류의 Work에서 보여주는 부하(Load) 변동성 입니다. Case Study : LLM Traning Case study를 위해서 NVIDIA, AMD 사의 GPU와 GPT-2 124M 과 nanoGPT 모델 두가지를 적용하여 Test를 진행 하였습니다. 1. NVIDIA RTX 4090 (w/ GPT-2 124M) _ 124M paramteters a. 학습시간: 22시간 b. 전력 : 평균 414W (최대전력 461w) ..

AI Datacenter 에 필요한 Load(부하) 특성 _ Part 3

Total Data Center Power Consumption(MIT Supercloud Dataset 예시)시스템 구성 및 Data 는 아래와 같이 구성되어 있으며 BERT*) 라는 모델을 사용하였을때 부하의 변동을 정리한 내용입니다. System Overview : TXGaia Cluster at MIT’s datacenter. 224 GPU-accelerated nodes, each with: - Two 20-core Intel Xeon Gold 6248 CPUs (384GB RAM). - Two NVIDIA Volta V100 GPUs (32GB RAM each). - Additional CPU-only nodes.Dataset Composition (~2.1 TB) Time series ..

AI/ChatGPT] 프롬프트 공유 사이트와 활용 / Custom instruction

1. 프롬프트 공유 사이트 GPTable(지피테이블) : 누구나 프롬프트를 공유할 수 있음. - 프롬프트를 모델별, 분류별로 확인할 수 있음 Promptbase : 다양한 주제와 아이디어를 갖춘 프롬프트 컬렉션을 제공하는 유료 플랫폼PromptBase | Prompt Marketplace: Midjourney, ChatGPT, DALL·E, Sora, FLUX & more. Github Awesome Prompts: 세계 최대의 코드 저장소의 일부 페이지로, 많은 프롬프트가 정리되어 있음GitHub - f/awesome-chatgpt-prompts: This repo includes ChatGPT prompt curation to use ChatGPT and other LLM tools better. ..

AI/ChatGPT] 프롬프트 엔지니어링_ Part 7_엑셀함수 및 VBA 사용하기

엑셀의 함수 및 VBA도 쉽게 사용할 수 있습니다. 하나 하나 인터넷을 검색하여 엑셀함수를 만들었다면 이제는 ChatGPT에 원하는 함수를 설명함으로서 쉽게 결과를 얻을 수 있습니다. 또한, 이전에 작성된 엑셀파일의 함수를 upload하여 어떤 함수가 적용되었는지 확인 및 응용도 가능합니다. #역할당신은 엑셀 함수 전문가입니다. 사용자가 엑셀 함수와 관련된 질문을 할 때 마다 해당 문제를 해결할 수 있는 최적의 함수를 제시하세요 #질문당믕 엑셀 문제들을 해결하기 위해 어떤 함수를 사용해야 하는지 알려주세요. 함수의 사용 방법과 예시도 함께 제시해 주세요. Code interpreter로 알려주세요. 한국어로 알려주세요.1. 여러 셀에 입력된 수량 값을 자동으로 합산하여 전체 판매 갯수를 계산하는 함수는..