Continuous Learning_Startup & Investment @continuouslearningmatthew Channel on Telegram

Continuous Learning_Startup & Investment

@continuouslearningmatthew


We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!

Continuous Learning_Startup & Investment (English)

Are you passionate about entrepreneurship, investment, life, and technology? If so, look no further than the Telegram channel called Continuous Learning_Startup & Investment, managed by the user @continuouslearningmatthew. This channel takes you on a journey through the captivating realms of these subjects, offering valuable insights and lessons that can shape your view of the world. It is a chronicle of exploration, where you can join like-minded individuals in a quest for knowledge and growth. Whether you are a seasoned entrepreneur, a budding investor, or simply someone who is curious about the world around you, this channel is the perfect place for you. With a focus on continuous learning, there is always something new to discover and explore. Join us today and let's embark on this exciting journey together. Remember, the key to success lies in never stopping learning!

Continuous Learning_Startup & Investment

06 Jan, 04:46


루틴에 대한 엄격함이 엄청난 생산성으로 이어진 사례.
(15) 제인 오스틴(Jane Austen)
루틴:
아침에 가장 먼저 피아노 연주. 오전 9시경 가족 아침식사 준비 담당. 그 뒤 가족 거실 한쪽에서 집필 시작.
방문객 오면 원고를 덮고 참여. 오후 3~4시경 메인 식사(디너) 후 가족 및 방문객과 대화, 카드게임, 차(tea) 등. 저녁엔 가족에게 새로 쓴 글을 읽어주곤 함.
특징 및 시사점:
당시 ‘하녀, 어머니, 여동생 등과 함께 사는 환경’에서 자유로운 작업 공간이나 시간이 보장되지 않았음.
그런 환경에서도 아침·오전 시간을 공략하여 틈틈이 글을 썼고, 가족이 오히려 공동체적으로 그녀의 글쓰기를 지지.
등등…(그 밖에도 뒤이어 마르셀 프루스트, 제임스 조이스, 시규드 프로이트, 에디트 시트웰, 살바도르 달리 등 많은 사례가 이어짐)

2. 공통점 및 생각해볼 만한 내용

a) ‘루틴’을 통한 창작 효율 극대화
절대적으로나 상대적으로나 매일 ‘일정 시간’을 확보해 쓰거나 작업함으로써, 그 시간에는 오직 창작에만 뇌를 집중하도록 훈련한 경우가 많음.
작가, 화가, 음악가 할 것 없이, 단 몇 시간이라도 엄격히 지키면 하루 전체의 산출이 꾸준히 누적된다는 교훈.

b) 아침형 vs. 저녁형
아침/오전 시간을 전적으로 창작에 쓰는 사람이 많았음(베토벤, 프랭클린, 보부아르, 버지니아 울프 등등)
한편으로 밤에 집중력이 더 좋다며 저녁~새벽을 활용하는 이(토머스 울프, 콜레트, 버로우스, 볼프 등)도 있음.
즉, ‘자기 생체 리듬과 에너지가 최고조가 되는 시간대’를 찾아 그때 집중적으로 글을 쓰거나 작품을 만드는 패턴이 공통적으로 보임.

c) 걷기, 산책, 낮잠
창작하면서 막히거나 아이디어가 떠오르지 않을 때 ‘산책’을 하는 이가 많았음(베토벤, 달린, 키르케고르, 칸트 등등)
혹은 작업 중 20~30분짜리 낮잠(파워내핑)으로 컨디션을 재충전(버지니아 울프, 잉마르 베리만 등).
산책 중 떠오른 아이디어를 ‘작업실로 돌아오자마자 받아 적는다’는 습관도 흔함.

d) 식습관·카페인·알코올·기타 ‘도움’
커피, 차, 초콜릿, 담배, 술 등 자극제(Stimulating Substance)를 활용한 사례가 다수.
일부는(오든, 하이스미스, 사르트르 등) 각성제나 수면제를 장기간 복용하기도 했음. 이는 현대적으로 볼 때 위험 요인이 있을 수도 있지만, 이들은 창작/작업을 위해 자기 몸을 극단적으로 사용한 예시라 할 수 있음.
적절한 수면과 섭생의 균형(베토벤처럼 정확히 콩 60알 세어 커피 끓이기)은 스스로에게 의식(儀式)을 부여함으로써 집중력을 높이는 효과가 있었다고 볼 수 있음.

e) 근무·가사노동 등 생계와 병행하는 전략
생계를 위해 피아노 레슨(모차르트)이나 학교 강의(M.엥겔스가 지원한 마르크스, 그리고 번역·에세이·저널리즘 병행 등)하면서도 틈틈이 전문 창작 시간을 확보.
제인 오스틴은 집안일과 손님 맞기 중간중간에 집필. 앤서니 트롤럽은 출근 전 3시간 활용.
가정이나 여건 때문에 완전히 분리된 ‘작업실’이 없어도, 자신만의 루틴을 창안해 작품을 완성.

f) 다른 일상(식사, 가족, 낮잠, 사교)을 어떻게 배분하는가
많은 사람이 아침부터 점심 전까지를 주(主) 작업 시간으로 삼고, 그 후엔 가족과 식사, 바깥 운동, 편지나 독서 시간을 보냄.
원고를 쓰다 막히면 “즐겁게 놀거나 가족과 교류” 같은 방식으로 ‘리듬’을 형성.
반대로 어둠이 깔리면 술집(베이컨 등)·사교(파티 등)로 나가 몰아치는 예술가도 존재.
중요한 건 자기 에너지 흐름과 생활 조건에 맞춰 루틴을 스스로 짜고, 상대적으로 방해받지 않도록 유지했다는 점.

3. 종합적 시사점

매일 꾸준히 하는 습관의 힘
일과 중 2~3시간만 몰입해도, 그것을 1년 누적하면 엄청난 분량의 원고나 작품이 나온다는 사례(앤서니 트롤럽, 헤밍웨이 등)가 많음.

최적의 집중 시간대 발견
사람마다 ‘오전파’와 ‘야행성파’가 갈리는 것처럼, 자신에게 맞는 ‘에너지 최대’ 구간을 찾아 그 시간을 절대적으로 확보.
체질상 아침이 좋은지, 밤이 좋은지를 파악하는 게 중요.

규칙성과 의식(ritual)화를 통한 정신 안정
매일 같은 시간에 일어나고 같은 시간에 커피 마시고 같은 자리에서 앉아 시작하는 식의 ‘습관화된 의식’은 일종의 신호 역할을 함.
어떤 작가는 “항상 같은 필기도구, 같은 옷차림, 같은 의자, 같은 배경 음악”을 고집해 “앉자마자 자동으로 집중 모드”가 발동되게 만듦.

육체적 건강과 리듬 관리
대부분의 인물이 일을 오래 지속하기 위해, 워킹·산책·가벼운 운동·낮잠 등을 적절히 활용.
과로 및 생활 균형을 잃고 병에 시달린 예시(예: 프란츠 카프카, 플로베르 등)도 다수. 오늘날에는 장기적 관점에서 건강을 해치지 않으면서 루틴을 설계하는 것이 중요할 듯함.

집필(창작) 외 나머지 시간의 효율적 분리

편지 답장이나, 가사·식사·사교·독서 등은 창작 시간을 침범하지 않도록 별도의 슬롯을 만듦.
이렇게 해야 글 쓰는 순간만큼은 ‘방해받지 않는 자유’가 보장되고, 루틴이 깨지지 않음.
‘안 써질 때(블록) 대처’

막혔을 때 산책, 낮잠, 욕조에 들어가거나, 심지어 싸우듯이 새벽까지 자리를 떠나지 않는 등 각자 다양한 방식이 있음.
중요한 건 스스로 에너지를 다시 충전하며, ‘그래도 매일 책상(혹은 작업 공간)’으로 돌아오는 꾸준함.

결론
Daily Rituals에 소개된 예술가·사상가들의 일상을 보면, 창조성은 선천적 영감만이 아니라 매우 ‘일상적이고 사소한’ 습관과 루틴에서 크게 영향을 받는다는 것을 알 수 있습니다.
이들이 남긴 글·작품을 보면, 화려한 사교나 대단한 취향이 있기도 하지만, 의외로 어떤 반복되는 일과를 지키면서 그 틀 안에서 창작적 에너지를 불러일으킨다는 점이 돋보입니다.

오늘날 우리가 배우거나 시도해볼 만한 점은:
자기 ‘최적 시간대’를 찾아내고,
하루 한두 시간이라도 방해를 최소화해(스마트폰 알림 끄기, 방문 잠그기, 카페나 독립된 사무실 등) 꾸준히 몰입하는 루틴을 만들며,
그 틀이 어느 정도 잡히면 체계적으로 습관화해 가는 것
이처럼 ‘정해진 패턴에 맞춰 반복’한다는 것이 결국 큰 성과나 작품을 만들어내는 핵심 요인으로 작용한다는 사실, 그리고 누구에게나 자신만의 루틴이 있다는 점이 이 내용에서 가장 인상적으로 살펴볼 부분이라 할 수 있습니다.

Continuous Learning_Startup & Investment

06 Jan, 04:46


1. 주요 인물별 Daily Ritual(일상 루틴) 정리
아래는 원문에 등장하는 여러 인물을 중심으로, 그들이 어떤 식으로 시간을 보내며 창작/작업을 했는지를 간략히 정리한 뒤, 이를 통해 살펴볼 수 있는 특징들을 덧붙였습니다.

Continuous Learning_Startup & Investment

06 Jan, 04:46


(1) W. H. 오든(W. H. Auden, 시인)
루틴:
오전 6시 조금 지나 기상, 즉시 커피 마시며 간단한 퍼즐(크로스워드 등)을 하거나 바로 글쓰기에 돌입.
머리가 맑은 시간대인 아침 7시~11시 30분 사이 최대한 집중해서 작업.
점심 후 오후에도 몇 시간 정도는 추가로 작업.
오후 6시 30분 정확히 칵테일 타임 시작(보드카 마티니 몇 잔).
저녁 식사 후 대화·독서. 밤 9시 30분~11시 사이에는 반드시 잠자리에 듦.
특징 및 시사점:
스스로 “규칙적인 일과는 지적 야심의 징표”라고 이야기할 정도로 ‘정해진 시간’을 중시함.
아침 일찍 일어나 생산적이고, 밤에는 자정 전에 자는 생활 리듬을 엄격히 지켰음.
각성을 위해 매일 아침 벤제드린(Benzedrine) 같은 각성제를 복용했다고도 알려져 있어(당대엔 의료용으로 비교적 쉽게 처방되던 약물), 에너지 유지에 화학적 도움을 받았음.
(2) 프랜시스 베이컨(Francis Bacon, 화가)
루틴:
지저분한 작업실, 혼돈 속에서 작업하는 것으로 유명하지만 실제로는 아침 일찍(해 뜰 무렵) 깨어서 바로 그림을 그림.
주로 정오쯤까지 몰입해서 작업한 뒤, 오후엔 친구들이나 클럽·레스토랑·술집을 전전하며 엄청나게 술을 마심.
새벽까지 파티·카페·나이트클럽·카지노를 다닌 뒤 수면제 등에 의존해 몇 시간 자고, 다시 새벽에 일어나 그림을 그림.
특징 및 시사점:
매우 즉흥적이고 ‘밤 문화’ 중심의 사교 생활을 하면서도, 정작 작업 시간 자체는 아침에 집중.
지독한 밤샘 파티와 술 등으로 무질서해 보이지만, 정작 ‘매일 해 뜰 때 일어나 그림 그린다’라는 식의 일관된 골자는 지킴.
(3) 시몬 드 보부아르(Simone de Beauvoir, 철학자·소설가)
루틴:
아침 10시경 시작해 1시까지 글쓰기.
점심 후, 오후 5시까지 다시 글을 쓰거나 장 폴 사르트르와 함께 조용히 작업.
저녁엔 모임·정치적 행사·사교 혹은 영화 감상을 하며 보냈고, 밤에는 간단히 위스키 마시며 라디오 듣다가 9시~10시에 잠자리에 듦.
특징 및 시사점:
지적 활동 및 글쓰기를 하루에 두 번(오전, 오후 후반) 나누어서 함.
연인인 사르트르와 함께 점심 식사 후 오후 시간도 대부분 각자 작업에 쏟으며, 저녁에는 사교 생활.
스스로 “낭비 없이 긴 글을 쓰기 위해 매일 규칙적으로 앉아 있는다”고 말함.
(4) 토머스 울프(Thomas Wolfe, 소설가)
루틴:
밤 12시쯤이 되면 어마어마한 양의 홍차·커피를 마시며 글을 쓰기 시작.
새벽까지 작업하다 날이 밝으면 마무리하고, 아침에 한두 시간쯤 잠.
키가 매우 컸던 울프는 서서 집 냉장고 위를 책상 삼아 글을 쓰기도 했다고 전해짐.
특징 및 시사점:
매우 강박적으로 밤낮이 뒤집힌 스케줄로 집필.
체력적으로 힘들 수 있으나, 작가는 오히려 밤 시간이 “정신이 맑아지는 시간”이었다고 느낌.
(5) 퍼트리샤 하이스미스(Patricia Highsmith, 소설가)
루틴:
오전 일찍 기상해 3~4시간 글쓰기(하루 2천 단어 정도가 목표).
침대나 소파에 누워서 커피·도넛·담배·술 등을 곁들여 ‘글쓰기를 유도하는 분위기’를 만듦.
밤에도 잠들기 전에는 보드카 등을 마시며 차분히 글에 대한 구상을 이어감.
특징 및 시사점:
“글쓰기는 즐거움이라기보다 ‘강박’에 가깝다”고 스스로 말함.
알코올·담배·커피 등에 크게 의존하지만, 집필이 진행되는 동안에는 반드시 하루 목표(분량)를 달성하려 함.
(6) 페데리코 펠리니(Federico Fellini, 영화감독)
루틴:
새벽 6시경 기상, 집 안을 돌며 창문 열고 간단한 커피 끓이려 시도.
아침 7시부터 주변 친구·동료에게 전화 걸어 깨우는 것(‘전화로 깨워주는 서비스’ 같은 습관).
오후에는 대본 작업, 영화 시사나 친구들과 모임.
특징 및 시사점:
감독 업무(영화 촬영 등)는 다수와의 협업·토론이 필요한 ‘사회적 일’이기 때문에, 아침 일찍부터 사람들을 깨워 의논하는 일을 좋아함.
“글 쓰는 사람이 아니다 보니, 오히려 이렇게 외부인과 함께 움직여야 영감이 떠오른다”고 말함.
(7) 잉마르 베리만(Ingmar Bergman, 영화감독)
루틴:
오전 8시 기상, 9시~12시 시나리오 집필.
낮 12시 즈음 소박한 식사. 오후 1~3시에 다시 집필, 그리고 낮잠 1시간.
오후 늦게 산책이나 볼 일, 밤에는 작품 감상(영화·TV·음악 등) 혹은 친구들과 만남.
특징 및 시사점:
매우 단순하고 규칙적인 틀 안에서 3시간(오전) + 2시간(오후)으로 작문 시간을 배분.
짧은 낮잠(파워내핑)이 창작의 효율을 높인다고 함.
(8) 모튼 펠드먼(Morton Feldman, 작곡가)
루틴:
6시 기상, 오전~이른 낮까지 작곡.
오후에는 산책하거나 친구 만나면서 여유 시간을 보냄.
음악 작업 방식은 존 케이지가 알려준 “조금 쓰고, 그걸 악보로 베껴 쓰며 아이디어 정리”를 습관화.
특징 및 시사점:
‘복잡한 주변 환경’보다는 일정하게 시간과 도구, 자리를 유지하는 습관.
음악 아이디어 정리를 위해 “쓰고, 베껴 쓰고, 생각하고…”를 반복하는 메서드를 즐김.
(9) 볼프강 아마데우스 모차르트(Wolfgang Amadeus Mozart)
루틴:
비엔나에 거주할 때, 오전 일찍(6시쯤) 일어나 60알의 커피 원두(직접 세면서)로 커피를 끓여 마심.
9시까지 작곡, 9시~1시 피아노 레슨(생계유지 수단). 오후는 공연 참석이나 후원자 방문 등 사교. 밤에는 다시 작곡하다 새벽 1시까지 이어짐.
특징 및 시사점:
확실히 생계(레슨, 후원자와 교류)와 작품 활동을 병행. 시간 관리가 매우 복잡하지만, 그러면서도 매일 틈틈이 작곡 시간을 만들어냄.
(10) 루트비히 판 베토벤(Ludwig van Beethoven)
루틴:
새벽 6시 기상. 가장 먼저 커피를 직접 끓이는데 “커피 원두 60알을 매번 세어 만든다.”
오전 내내 작곡과 아이디어 구상, 종종 산책을 나가 멜로디 스케치(작곡노트를 들고 다님).
오후에도 길게 산책하거나 사교모임에 잠깐 들렀다 돌아오지만, 작업은 주로 아침에 집중.
밤에는 독서 후 일찍 취침.
특징 및 시사점:
“커피 원두를 60알 정확히” 같은 디테일에서 드러나듯, 작은 의식적 행동을 통해 집중력을 높임.
작곡 중간중간 걷기·외출이 영감에 매우 중요했다고 함.
(11) 쇠렌 키르케고르(Søren Kierkegaard)
루틴:
아침부터 정오 무렵까지 집필.
점심 후 도시를 걸으며 아이디어를 떠올림. 돌아와 다시 밤까지 집필.
커피 애호가였고, 설탕을 잔뜩 넣어 마시는 독특한 습관.
특징 및 시사점:
철저하게 ‘산책 + 집필’ 패턴을 반복.
“따뜻한 곳에 앉아서 사색하기보다 걸으면서 더 깊은 사유가 가능하다”는 생각.
(12) 볼테르(Voltaire)
루틴:
아침에 침대에서 책·신문·원고 받아 읽거나 암송. 정오쯤 일어나 옷을 갈아입음.
점심(혹은 커피·초콜릿 등 음료) 후, 오후 2시~4시에 주변 살피고 저녁 전까지 다시 집필. 밤에는 저녁식사 후 바로 다시 글쓰기 시작.
18~20시간 일을 이어갈 때도 있었다고 전해짐(비서들이 번갈아 가며 받아적음).
특징 및 시사점:
식사를 가볍게 혹은 거르면서도, 대신 커피·초콜릿으로 에너지를 공급.
침대에서 시작하는 ‘반(半)수평 상태’ 작업 습관.
(13) 벤저민 프랭클린(Benjamin Franklin)
루틴:
이상적 시간표: 아침 58시에 기상, 공부, ‘오늘 할 일’ 계획. 812시 일, 122시 점심·독서, 26시 다시 일. 6~10시 저녁·정리·취침.
스스로 “도덕적 완전성” 계획표를 세우고 실천하려 노력했으나, 실제로 매번 지키지는 못했다 함.
샤워 대신 ‘에어 목욕(air bath)’이라며, 매일 아침 옷을 벗고 찬 바람을 쐬는 독특한 습관.
특징 및 시사점:
자기관리(습관 형성)에 관심이 높았고, 이를 도표로 기록.
“일단 좋은 습관을 자동화하면, 더 흥미로운 일에 정신 쏟을 수 있다”고 주장.
(14) 앤서니 트롤럽(Anthony Trollope)
루틴:
새벽 5시 30분 기상, 3시간 정도 소설 집필 후 출근(공무원 일이 있었음).
“매 15분마다 250단어씩 써서, 아침 3시간 작업이면 충분하다”고 말할 정도로 치밀하게 글 분량을 관리.
한 작품이 끝나면 곧바로 다음 작품 원고지에 착수함.
특징 및 시사점:
초단위로 ‘단어 수’ 목표를 정해놓고 글을 써서, 연간 3권씩 장편 소설을 펴냄.

Continuous Learning_Startup & Investment

06 Jan, 03:24


작년 말부터 읽기 시작해서, 2주 동안 완독한 ‘리추얼’이라는 책으로 올해의 독서를 시작했고, 50권 목표의 첫 테이프를 이 책으로 끊게 돼서 2025년 독서에 대한 기대가 크다.
이 책의 저자인 메이슨 커리는 일상과 창조에 대해서 아주 관심이 많은 분이고, 항상 “모든 사람이 똑같은 24시간을 사는데, 왜 어떤 사람들은 더 많은 것을 이루는 것일까?” , “소수의 창조적인 사람들은 일반인에 비해 특별한 습관을 갖고 있는 것일까?” , “창조적인 사람들은 우리보다 더 효율적이고, 더 주도적이고, 더 훈련된 것일까?”라는 질문을 했다.
이 질문에 대한 만족할 만한 답을 스스로 찾아보기 위해서 그는 지난 400년간 가장 위대한 창조자로 손꼽히는 소설가, 작곡가, 화가, 안무가, 시인, 철학자, 영화감독, 과학자들의 하루를 정리하는 Daily Routines 라는 블로그를 쓰기 시작했다. 그는 이 블로그를 통해서 위대한 사람들의 하루 시간표와 작업 습관을 정리하면서, 이들을 일반인들과 확연하게 구분하는 수면, 작업, 연습, 휴식 패턴을 찾고, 혹시 일상의 장애물을 극복하기 위한 창조자들만의 가이드라인이 있는지 파악하는 노력을 했다. 그리고 이런 내용을 정리한 게 ‘리추얼’ 이라는 책이다.
리추얼은 위대함을 달성하기 위한 습관과 루틴에 대한 책이다. 이 책에 소개된 우리가 잘 아는 예술가나 과학자 중 아주 괴팍한 작업 습관을 가진 분들도 많고, 우리가 흔히 생각하듯, 어떤 창조자들은 반복되는 패턴보단 순간의 느낌과 영감에 의해서 아주 짧고 굵은 삶을 살다 갔다. 그런데 내가 이 책을 읽고 느낀 점은, 훨씬 더 많은 창조자들이 순간의 느낌과 영감보단, 아주 오랜 세월 동안 꾸준한 반복으로 인해 생긴 습관과 루틴에 따라서 지속성 있는 창조를 했다는 것이다. 이들의 꾸준함에 대해서 읽다 보면, 이들이 위대한 창조자라기 보단 수십 년 동안 매일 똑같은 동작을 반복하는 운동선수에 더 가깝다는 느낌을 받았고, 매일 같은 회사로 출근해서 수십 년 동안 같은 업무를 하는 직장인의 삶과 거의 완벽하게 일치한다는 느낌도 받았다.
리추얼에서 소개된 위인들의 삼 분의 이는 이미 죽은 사람들이지만, 이들이 남긴 창조물은 책, 음악, 그림, 영화 등으로 앞으로 수십 년에서 수백 년 동안 전 세계에 영감을 줄 것이다. 이미 죽은 사람들이라서 내가 이들과 직접 이야기할 순 없지만, 책을 통해 간접적으로 접한 이들의 위대함은 타고난 유전자나 번뜩이는 영감을 통해서 순간적으로 만들어진 게 아니다. 오히려 매우 지루한 습관, 동작, 그리고 루틴을 거의 평생 기계적으로 무한 반복했고, 이로 인한 내공이 쌓이고 그 내공의 포텐이 터지면서 위대함이 된 것이라고 할 수 있다.
나도 항상 나만의 정교한 루틴을 만들기 위해서 노력하는데, 이 책은 나에게도 많은 꿈과 희망을 줬다. 내 이름 석 자를 남길 수 있는 위대한 사람이 되겠다는 목표보단 그냥 내가 현재 하는 일을 제대로 하기 위한 습관과 루틴은 우리가 생각하는 것보다 훨씬 중요한데, 이 책에서 아주 마음에 드는 습관에 대한 정의를 발견했다.
“습관은 제한된 자원, 예컨대 시간(가장 한정된 자원)은 물론이고 의지력과 자제력, 낙천적인 마음마저 최대한 활용하기 위해 정교하게 조정된 메커니즘이다. 좋은 습관은 정신적 에너지를 몸에 밴 반복 행위에 쏟고, 감상의 폭정이 끼어들 틈을 차단하는 데 도움을 준다.”
일을 잘하고 싶으면, 인생을 더 단순화해야 하고, 복잡한 인생을 단순화할 수 있는 좋은 방법은 좋은 습관과 루틴을 만드는 것이다.

https://www.thestartupbible.com/2025/01/daily-rituals.html

Continuous Learning_Startup & Investment

05 Jan, 13:03


https://product.kyobobook.co.kr/detail/S000001029288

에고의 정의
홀리데이는 프로이트식 ‘자아(ego)’가 아니라, “자신의 중요성을 과대평가하는 상태”—즉 오만(arrogance), 자기중심적 야망(self-centered ambition), 과대망상(delusion of grandeur)—를 에고라고 부릅니다.
- “나는 특별하니까 반드시 잘될 거야” “내 생각이 최고” 같은 태도가 현실 인식을 흐리고, 협업·학습까지 방해한다는 것.

에고가 문제인 이유
- 에고는 주변 사람과 제대로 소통·협업하기 어렵게 만들고, 판단력을 흐리며, 현실 감각을 떨어뜨립니다.
- 한순간 ‘자신감’처럼 보일 수 있지만, 결국 회복탄력성과 진정한 성과를 가로막습니다.

홀리데이는 인간의 여정을 3단계(열망Aspire–성공Success–실패Failure)로 나누어, 각 단계에서 에고가 어떻게 나타나고 어떤 문제를 일으키는지 설명합니다.

1) 열망(Aspire)
(목표를 세우고 이제 막 시작하는 시점)

(1) ‘학생이 되라 (Be a Student)’
큰 꿈만으론 부족. 실질적 학습과 연습이 필수.
단순히 ‘열정’을 뽐내고 큰소리치는 것 = 에고 함정에 빠질 위험.
예) 커크 해밋(Kirk Hammett, 메탈리카): 이미 유명 밴드에 합류했어도 스승(조 새트리아니)에게 꾸준히 배움 → 정상급 기타리스트로 성장.

(2) ‘열정(Passion)보다 목적(Purpose)을 택하라’
열정 = 흥분과 자기도취로 약점을 가릴 수 있음.
목적 = 차분하고 체계적 태도. “왜 이 일을 하나?”에 대한 분명한 이유(가치·목표) 설정이 중요.

(3) ‘말, 말, 말(Talk) vs. 일, 일, 일(Work)’
SNS·언론에서 떠벌리기 쉽지만, 꾸준한 준비·연습이 진짜 핵심.
다른 사람의 관심만 쫓다 보면 실제 성장은 거의 없음.

(4) ‘캔버스 전략(Follow the Canvas Strategy)’
“남이 그림을 그릴 수 있도록 캔버스를 마련하라.” → 다른 사람을 돕고 빛나게 만드는 태도.
벤저민 프랭클린처럼 묵묵히 준비하고 실력 쌓으면, 장기적으로 더 큰 기회와 영향력을 얻을 수 있음.

열망 단계 요점:

에고적 ‘큰소리’ 대신, 목적과 배움에 집중.
학생 자세로 실력을 쌓고, 행동(Work)이 말(Talk)보다 우선.

2) 성공(Success)
(어느 정도 목표 달성 후)

(1) ‘언제나 학생으로 남아라 (Always Stay a Student)’
성공했다고 “이제 다 알아!” 착각 금물.
징기스칸·안젤라 메르켈 사례: 계속 학습·겸손 유지.

(2) ‘자기가 만든 영웅담(Story)을 믿지 말라 (Don’t Tell Yourself a Story)’
사람은 성공 후 “다 계획대로!” 같은 신화 만들기 쉬움.
빌 월쉬, 제프 베이조스: “전설·미화보다 실제 실행에 집중.”

(3) 자격의식(Entitlement), 통제(Control), 편집증(Paranoia)을 경계
높은 위치 → “난 누릴 자격 있어” “내 말만 옳아” “누군가 날 노려!” 같은 태도.
크세르크세스(Xerxes)가 강물에 형벌 내린 사례처럼, 오만·편집증으로 스스로 망침.

(4) ‘스스로·조직을 관리하라 (Managing Yourself and Your Organization)’
큰 조직은 체계 필요. 예) 아이젠하워는 백악관을 효율적으로 운영하여 본인은 핵심만 결정.
반면 존 드로리언(DeLorean)은 혼란만 야기, 결과적 실패.

(5) ‘술 취하지 않은 맑은 상태(Sobriety)’ 유지
성공은 술처럼 사람을 취하게 만듦.
안젤라 메르켈: 연속 집권에도 겸손·기본 태도 지킴 → 오만에 빠지지 않음.

성공 단계 요점:

조금 성공했다고 에고가 “역시 난 최고” 자만하지 않도록 주의.
학습 태도·체계 유지, 과잉 통제·자기확신·편집증 지양.
성공은 ‘더 나은 일’을 위한 발판이지, 에고 충족 도구가 아님.


3) 실패(Failure)
(좌절·실패를 겪을 때)

(1) ‘Alive Time vs. Dead Time’
어려울 때, **소극적 자책·분노(dead time)**에 머무를지, 새로운 학습·재정비(alive time)로 삼을지.
말콤 엑스: 교도소에서 독서·공부해 완전히 거듭남.

(2) ‘노력 자체가 충분하다 (The Effort Is Enough)’
옳은 일을 해도 실패·무시당할 수 있음.
벨리사리우스: 제국을 구했으나 황제에게 버려짐. 그래도 “의무를 다했다”는 의연함.

(3) ‘파이트 클럽(Fight Club) 순간들’
때로 인생 밑바닥 경험(=카타바시스) 통해 환상 걷어냄.
“이대로는 못 살겠다” 깨닫고 변화의 계기 얻음.

(4) ‘선을 긋고 그만 두라 (Draw the Line)’
실패가 보이면, 에고는 더 깊이 파고들라 부추김(“자존심 지켜야 해!”).
존 드로리언은 회사 부도 위기에 코카인 밀수라는 극단적 선택 → 완전 파탄.

(5) ‘내 기준으로 점수 매기기 (Maintain Your Own Scorecard)’
실패 시 에고는 “왜 세상이 날 배신해!”라며 외부 탓.
내부적 기준(“최선을 다했나?”) 있으면 흔들리지 않고 재기 가능.
톰 브래디 드래프트 때, 뉴잉글랜드 패트리어츠는 성공했어도 “우리 운이 좋았을 뿐, 더 잘해야”라며 자체 기준 엄격히.

(6) ‘결국 사랑하라 (Always Love)’
배신·실패 시 증오·분노만 키우면, 스스로 더 망침.
허스트(William Hearst)가 시민 케인 방해하려다 오히려 본인 명예까지 훼손.
증오는 결국 자신도 파괴.

실패 단계 요점:

실패는 에고를 내려놓고 성찰·재정비할 기회.
복수심 등 자존심 싸움은 더 큰 파탄. 학습·재기 쪽으로 에너지를 써야 함.

결론(Concluding Principles)

1. 매일 바닥 쓸기 (Sweep the Floor Every Day)
에고는 먼지처럼 계속 쌓임. 한 번 내려놓았다고 끝이 아님. 늘 점검 필요.

2.목적(목표) > 에고 (Purpose over Ego)

성공·실패 때마다 “내가 진짜로 원하는 가치와 목표는 뭔가?” 되새김.
“난 무조건 최고” 같은 에고적 속삭임 버리기.

3. 성공 기준을 내부적으로 세우라 (Define Success Internally)

남들 칭찬만 기다리지 말고 “내가 최선을 다했나?”로 평가.
외부 평가보다 내 기준·과정의 완성도가 더 중요.

4. 더 큰 세계(우주)의 일부임을 기억 (Remember You Are Part of Something Bigger)

모든 인간은 결국 시간 앞에 겸손해야 함.
내가 이룬 ‘거대한’ 것조차 우주적 시야로 보면 작은 점에 불과. 지나친 자기중심성을 낮춰줌.

결론적으로:
*에고 이즈 에너미(Ego Is the Enemy)*의 핵심은 겸손, 자기성찰, 자기관리입니다.

열망 단계: 과시적 ‘큰소리’가 아니라, 진정한 목적과 배우는 태도에 충실.
성공 단계: 에고에 취하지 않고, 시스템·조직을 개선하며 지속적으로 배우기.
실패 단계: 에고가 부추기는 복수심·낭비적 집착을 떨쳐내고, 교훈 삼아 재도약하기.

Continuous Learning_Startup & Investment

05 Jan, 07:21


연구의 기반이 되었던 논문 https://arxiv.org/abs/2305.10455

## 1. 핵심 아이디어(Core Ideas)

1. 목표: 대규모 모달(멀티모달) 모델의 물리 세계 확장
- 최근 거대 언어 모델(LLM)과 멀티모달 모델(MFM, Multimodal Foundation Models)이 여러 분야에서 뛰어난 성능을 보이며 ‘가상 세계(언어·이미지·코드 등)’를 넘어서 물리 세계와 직접 상호작용하는 “제너럴리스트 로봇(generalist robots)”으로 확장되는 방법을 탐색한다.
- 저자들은 “로봇이 실제 물리 세계에서 다채로운 작업을 할 수 있으려면, 먼저 시뮬레이션 환경에서 충분히 다양한 ‘저수준(로우 레벨) 모터 스킬’을 학습해야 한다”고 주장한다.
2. Generative Simulation(생성형 시뮬레이션)
- 거대 멀티모달 모델이 생성 능력을 가지고 있다는 점(텍스트·이미지·3D·코드 생성 등)을 활용하여, “자동으로 수많은 작업(task)과 장면(scene)을 시뮬레이션에서 만들어내고(Generate)”, 이를 통해 로봇의 저수준 동작 제어 정책을 대규모로 학습하는 방식을 제안한다.
- 이때, 고수준(High-level) 계획이나 추론은 이미 충분히 강력한 대규모 모델에게 맡기고, 실제 물리 동작(모터 스킬)은 시뮬레이션을 통해 정책을 학습하는 식으로 역할을 분담한다는 발상이다.
3. 시뮬레이션 데이터 스케일 확장
- 언어 모델이 거대한 규모의 텍스트 코퍼스에서 학습하듯, 로봇 정책도 엄청나게 방대한 스케일의 시뮬레이션 경험(시나리오, 보상함수, 환경 설정 등)으로 학습되어야 한다.
- 하지만 기존 시뮬레이션 데이터 제작은 대부분 사람이 “수작업”으로 환경·작업·보상함수를 설계하는 데 많은 비용이 든다.
- 그래서, “MFM을 이용해 자동으로 수많은 작업·환경을 생성”하고 이로부터 대규모 학습 데이터를 얻을 수 있는 방식이 필요하다.

---

## 2. 방법론(Methodology)

논문에서는 “Generative Simulation”이라는 자동화된 파이프라인을 소개한다. 대략적인 단계는 다음과 같다.

1. 고수준 목표(High-level Goal)와 하위 과제(Sub-task) 자동 생성
- 예: “부엌 청소하기(clean up a kitchen)”라는 목표가 주어졌다면, MFM(Large Language Model 등)을 질의(prompt)하여 이 목표를 여러 단계의 하위 작업들로 나눈다.
- GPT-4 같은 모델에게 “구체적인 청소 업무 5가지만 나열해 봐”라고 하면, “(1) 식기 닦기 (2) 조리대 닦기 (3) 바닥 쓸기 …” 등으로 분해된 할 일 목록을 얻는다.
- 필요하다면 하위 작업을 더 세분화(“바닥을 쓸어라” → 빗자루 잡기, 먼지 모으기, 쓰레기통 버리기 등)하여 로봇이 학습할 **짧은 호라이즌(short-horizon) 스킬**로 만들 수 있다.
2. 장면(Scene) 자동 생성
- 하위 과제마다 필요한 물체나 구성요소(예: 부엌 → 빗자루·쓰레받기·싱크대·쓰레기통 등)를 거대 언어·이미지 모델에게 질의해 얻는다.
- 이어서 이 물체들이 어떻게 배치되는지(예: x-y 평면 좌표와 z 높이 좌표)를 MFM에게 “코드나 설정파일(JSON 등) 형태”로 생성하게 함으로써, 시뮬레이터에서 불러올 수 있는 형식으로 만든다.
- 모델이 다소 부정확하거나 비현실적인 위치를 생성할 수도 있으므로, 필요하면 시뮬레이터로 한 번 배치해본 뒤(렌더링 결과), 이를 다시 모델에게 피드백하여 점차 실제와 비슷한 장면으로 “반복(Iterative refinement)”할 수도 있다.
3. 객체(오브젝트)·재질·물리 속성(Physics properties) 생성
- 생성한 장면에 들어갈 3D 물체(메시, 텍스처, 재질 등)를 또 다른 생성 모델(3D 생성모델, diffusion모델 등)이나 오픈소스 3D 라이브러리(예: Objaverse, ShapeNet 등)에서 불러온다.
- 물체의 강성(rigid), 연성(soft), 점성(viscous), 관절(articulated) 특성 등 시뮬레이터가 지원하는 물리 모델(Material model)을 MFM이 “이 사물은 딱딱한 플라스틱, 이건 물, 이건 휘어지는 고무” 같은 식으로 합리적으로 할당하도록 할 수 있다.
4. 보상함수(Reward)·학습 신호(Supervision) 자동 생성
- 각 하위 과제(예: 빗자루를 잡기, 바닥을 쓸기 등)에 특화된 보상 함수를 모델이 자동으로 생성한다.
- 예를 들어, “빗자루를 grasp하면 보상을 1 주고, 아니면 그립-빗자루 간 거리로 보상을 감소시킨다” 같은 함수를 GPT-4가 파이썬 코드로 써줄 수 있다.
- 만약 요리처럼 단순 거리 계산으로 판단하기 어려운 과제라면, 이미지 기반 목표 상태(goal condition)나 추가 피처를 포함하도록 설계할 수도 있다.
5. 학습과 정책 통합
- 위 과정을 통해 “수많은 하위 과제·장면·보상”이 완비되면, 이를 통해 Reinforcement Learning(RL)·Trajectory Optimization 등으로 짧은 호라이즌 저수준 스킬을 대량 학습한다.
- 이렇게 학습된 태스크별 정책들을 하나의 거대한 “멀티 태스크 정책”으로 지식 증류(behavior distillation)하거나, 시뮬레이션 상에서 데이터를 쌓아가며 오직 하나의 거대 모델(비전+언어+저수준 액션)을 끝까지 학습할 수도 있다.
- 결국, 로봇이 “거대 멀티모달 모델이 표현하는 상위 지식(예: 자연어·비전·코드)”과 “실제 물리 상호작용 경험”을 통합하여, “실세계에서 유연하게 동작하는 로봇 모델”을 생성하는 것이 이 패러다임의 목표다.

---

## 3. 한계(Limitations)

Continuous Learning_Startup & Investment

05 Jan, 07:21


1. 고도로 통합된 시뮬레이션 플랫폼의 필요성
- 논문에서 제안한 방식대로라면 “다양한 물리 현상(고체, 유체, 점성, 열, 파손, 탄성 등)을 모두 재현”하고 “다양한 센서(RGB, 깊이, 촉각, 힘-토크, 음향 등)를 시뮬레이션”할 수 있는 범용 플랫폼이 필요하다.
- 아직까지 모든 것을 한 번에 구현하는 통합된 “완벽한 범용 시뮬레이터”는 없지만, 연구자들은 Omniverse, IsaacGym, PyBullet, MuJoCo 등에서 꾸준히 기능을 확장하고 있다.
- “가정 환경에서 발생하는 대부분의 작업” 수준이라면 상당 부분 시뮬레이션으로 해결 가능할 것으로 전망한다.
2. 짧은 호라이즌(Short-horizon) 정책 가정
- 본 논문은 “세분화된 하위 작업을 충분히 많이 만들어내면, 결국 각 스킬은 짧은 호라이즌 RL로 훈련 가능하다”는 전제를 깔고 있다.
- 하지만 어떤 복잡하거나 빠른 동작(예: 로봇이 스케이트보드로 점프 묘기, 농구 슛 등)은 “짧은 호라이즌” 만으로 해결하기 어렵거나, 시뮬레이션 학습 비용이 매우 커질 수 있다.
- 다만 저자들은 “일반적인 가정 내 서비스 로봇 수준”에서는 이 방법이 충분히 실용적일 것이라고 강조한다.
3. MFM의 과제 분해 능력에 대한 의존
- 거대 언어 모델에 “고수준 목표를 적절한 하위 태스크로 세밀하게 분해”시키는 과정이 제대로 작동해야 한다.
- 가령, 복잡한 조립 문제(IKEA 가구 조립 등)는 언어나 비디오·매뉴얼 같은 추가 정보 없이는 MFM이 충분히 세분화된 계획을 내놓지 못할 수도 있다.
4. 사람 시연(human demonstration)과의 결합 문제
- 이 논문은 시뮬레이션 대규모 학습에 집중하기 때문에, “사람의 실제 시연(teleoperation, kinesthetic teaching)에서 오는 장점”을 크게 활용하지 않는다.
- 하지만 저자들은 “정말 세밀한 저수준 스킬이 필요한 경우, 소수의 사람 시연을 받되, 그 이외의 장면·작업 다양성은 생성형 시뮬레이션으로 대량 확보할 수 있다”는 식으로, 둘을 병행하는 가능성도 제안한다.
5. Sim-to-real 전이(Sim2Real)의 가정
- 이 모든 기법은 “시뮬레이션에서 배운 정책이 실제 로봇에 전이 가능”하다는 전제에서 출발한다.
- 최근엔 도메인 랜덤화(domain randomization)나 네트워크 구조 설계 등을 통해 복잡한 다관절 로봇, 이족보행 로봇, 소프트 로봇, 심지어 유체와 상호작용하는 작업도 어느 정도 성공적으로 sim2real을 해내고 있다는 점을 들어, “이 문제는 충분히 해결 가능하다”고 낙관한다.

Continuous Learning_Startup & Investment

05 Jan, 07:15


https://youtu.be/jM_rYOrgJ7E
https://genesis-world.readthedocs.io/en/latest/index.html

1. 기존 로봇 및 시뮬레이션 분야에서는 다양한 플랫폼(예: Mujoco, Isaac Gym/Sim, Bullet)들이 이미 존재.
- 주요 문제점
1) 배우는데 시간이 많이 필요함: GPU 병렬화나 대규모 병렬 시뮬레이션을 구현하려면 복잡한 설정과 API 학습이 필요함.
2) 일부 엔진은 폐쇄형(closed-source) 또는 소스 접근이 어려워, 사용자 맞춤 수정이나 물리 모델 확장이 제한적.
3) 기존 CAE(예: Ansys)와 달리, 로봇/게임 쪽 시뮬레이터들은 고성능 병렬화에 치중했지만, 여전히 정확도·유연성 면에서 한계가 있거나, 반대로 너무 세팅이 복잡.

2. 무엇을 개선했나?
1) 완전한 파이썬 기반 오픈소스
- 설치와 API 접근이 쉬움. 커뮤니티 기여(플러그인 등)가 용이.
2) 압도적인 병렬화·속도
- GPU 병렬 수행으로, 예: 단일 프랭카 매니퓰레이터 장면에서 43 million FPS 시연. 기존 GPU 시뮬레이터 대비 10~80배 빠른 수준을 목표.
3) 다양한 물리현상 통합(multi-physics)
- Rigid-body, MPM, SPH, FEM, PBD 등 **여러 솔버**를 한 프레임워크에서 작동 → 광범위한 소재·환경을 시뮬레이션 가능.
4) 생성적(Generative) 데이터 엔진
- 자연어 프롬프트("원숭이가 테이블을 뛰어다니며 카메라 360도 회전 촬영…")로 물리 정확한 4D 시뮬레이션, 비디오, 음성, 로봇 행동정책 등을 자동 생성.
- 자동화된 시나리오→카메라 경로→정확한 동작·렌더링까지 일괄 지원.

3. 어떻게 개선했나?
1) 데이터 생성 + 학습방식
- “Generative agent framework”: 자연어 프롬프트("원숭이가 테이블을…")를 해석해
(1) 장면(객체·환경) 배치,
(2) 카메라 모션,
(3) 로봇 동작/정책(조인트·드론군집 등) 같은 요소를 자동으로 생성하여 **동적 물리 장면**을 구성.
- 이렇게 만들어진 4D 시뮬레이션("동영상+상태·센서 정보")은 곧 학습용 데이터:
- 예: 로봇 제어 정책을 강화학습하거나,
- AI 모델(예: 영상·동작 인식, 시뮬레이션 예측) 학습에 활용 가능.
- 논문은 아직 전부 공개되지 않아, "Generative agent 내부가 어떤 딥러닝 구조인지" 구체적 언급은 제한적.
- 다만, VLM(대규모 비전/언어 모델) 계열 + 내부 물리 엔진 API 호출 로직이 결합된 형태로 추정.
- 기본 개념: 자연어→시뮬레이션 장면 자동생성, 시나리오→정책(행동)→영상/궤적 생성
2) Re-built from the ground up
- 기존 시뮬레이터들의 "스택이 복잡, 폐쇄적, 특정 물리현상 전용"인 한계를 해소하고자, **통합 물리엔진**(rigid+deform+fluid)을 새롭게 작성.
3) Pythonic + JIT + GPU 가속
- 파이썬 API를 유지하면서, 내부는 GPU 병렬 코드를 JIT 컴파일(커널 캐싱 등) → 대규모 병렬 시뮬레이션 지원.
- "Auto-hibernation" 등 최적화 기법을 적용. (정적 물체는 계산 스킵 등)
4) Generative agent
- 텍스트 프롬프트나 VLM(large model) 방식으로, 시뮬레이션 인프라 API를 조작해 **4D 동적 장면**을 생성.
5) Ray-tracing 렌더 + Differentiability + Tactile
- 포토리얼 렌더링(광선추적)과 더불어, 완전 미분이 가능한 시뮬레이션을 목표(일부 솔버는 이미 지원 중).
- 로봇 촉각 센서도 시뮬레이션해 정확도↑.

4. 산업에 미칠 영향
- 로봇 산업
- 학습/훈련 속도 비약적 향상
- 수천~수만 병렬 환경에서 RL(강화학습)이나 시뮬레이션 가능 → **정책 학습**이 빠르고 다양한 시나리오(물질·환경) 적용 가능.
- 정책 자동생성(Generative Policy)
- "RoboGen"처럼 특정 작업(이동, 조작) 데이터를 자동으로 생성하여, 실제 로봇에 **Sim2Real**로 옮기기 수월.
- 소비자용 로봇 역시, 가상의 '집·환경'을 무제한으로 만들어 **로봇 동작**을 미리 학습·테스트 → 제품 개발·출시 속도 개선.
- 시뮬레이션(CAE) 발전 방향
- CAE는 주로 정확도 높은 해석을 위해 implicit solvers를 쓰나, Genesis처럼 반실시간 수준의 병렬화로 준정확한 해석 장면을 다양하게 생성할 수 있음.
- 차후 이 둘이 결합되어, 공정 설계나 형상 최적화에 빠르고 폭넓은 사전 해석을 할 수 있는 가능성.
- 게임/그래픽
- 광원·물리·의상·유체 등 그래픽 알고리즘을 로봇 시뮬레이션과 통합한 사례. 고품질 시뮬레이션을 게임 엔진 수준으로 빠르게 돌릴 수 있음 → 미래엔 물리적으로 일관성 높은 게임 월드를 구성 가능.
- 또한 AI NPC 행위 생성(모션 등)에도 물리기반 시뮬레이션 데이터가 큰 도움이 될 전망.

5. 한계
1) 물리 정확도 vs. 속도
- 주로 빠른 병렬 처리를 위해 explicit 기반 혹은 반(半)implicit 접근을 사용. 고난이도(고강성·대변형) 문제에서 전통 CAE의 implicit 정확도를 완전히 대체하긴 어려움.
- 미분가능한 부분도 현재는 일부(예: MPM, Tool Solver)만 지원. 추후 rigid-body, SPH 등 확장 필요.
- 미분가능 시뮬레이션(Differentiable Simulation)은 출력이 입력에 대해 도함수를 구할 수 있는 형태로 구현된 시뮬레이션을 의미.
- 이를 통해 제어·정책 최적화, 물성치 추정(Identification), 형상·구조 최적화 등이 가능.
2) Generative Framework 아직 공개 전부가 아님
- 현재는 물리엔진·시뮬레이터를 우선 공개, **Generative agent 모듈**은 순차적 오픈 예정.
- 실제 로봇 정책 자동생성 기능("RoboGen") 등은 아직 자료가 제한됨.
3) 대규모 실무 검증
- 다양한 산업 현장에서의 하드한 검증(강인성, 물성치 튜닝)이 필요.
- 대형 어셈블리나 극단적 조건(고온·진동 등)의 정확도는 향후 이슈.

Continuous Learning_Startup & Investment

31 Dec, 16:00


누구나 죽는다는 사실을 알고 있다.
그러나 ‘언젠가 몇 십 년 뒤’쯤으로만 생각했던 죽음이 당장 며칠 후, 혹은 몇 주 뒤에 닥쳐온다면, 과연 우리는 어떻게 살 것인가?

신경외과 의사였던 폴은 폐암 4기 판정을 받은 뒤 자신의 삶의 의미를 깊이 고민한다. 항암치료를 병행하면서 딸을 출산하고, 다시 신경외과 의사로 복귀해 수술을 집도하던 그는 죽음을 맞이하기까지 본인의 이야기를 글로 남겼다. 이 책이 바로 《숨결이 바람 될 때》이다.

폴은 늘 환자를 아끼는 의사였다.

"제 환자들은 모두 소중합니다. 그들의 삶의 가치는 숫자로만 정의될 수 없습니다."

그런 그가 폐암 4기 판정을 받고, 이번에는 ‘환자’의 입장에서 죽음을 준비해야 했다.

“진단서 한 장이 내 인생을 완전히 바꿔 버렸다. 의사복은 벗겨지고, 환자복만 남았다.”
"나는 어느 날 문득, 삶과 죽음의 경계가 이렇게도 가까이 있다는 걸 깨달았다."
“아내의 손을 잡고서야, 내가 진짜 살아 있음을 느꼈다.”

폐암 4기 상태로 환자가 된 그는, 아내 루시와의 관계에서도 난관에 부딪힌다. 둘은 부부 상담을 통해 서로가 느끼는 두려움과 상실감을 허심탄회하게 나누었고, 루시는 “남편이 아무리 힘들어도 자신을 고립시키지 않았으면 좋겠다”는 마음을 전한다. 폴 또한 “아내가 자신의 유일한 마음 버팀목”임을 깨닫는다.

루시는 남편이 오래 살 가능성이 낮다는 것을 알면서도, “아이를 낳아 함께 맞이하는 순간이야말로 두 사람에게 남은 ‘진정한 삶’”이라 여겼다. 동시에 그녀 본인에게도 이 아이는 “미래를 잇는 희망”이었다.

과연 ‘살아 있다’는 것은 무엇일까?

“숨이 멈추는 날까지도, 나는 나의 이야기를 써 내려가고 싶었다.”
“죽음 앞에서 내가 진짜로 붙잡을 가치는 무엇인가.”
“딸을 처음 안아 본 순간, 내 삶이 더없이 단단해졌다는 느낌이 들었다.”
"삶의 끝자락에서야, 함께 손잡아 줄 사람이 곁에 있다는 것이 얼마나 큰 위안인지 깨달았다."
“이제 숨결이 바람으로 스며들 순간이 다가온다. 그러나 내 영혼의 울림은 멈추지 않을 것이다.”

결국 “사랑과 인간관계가 가장 귀중하다”는 결론에 다다른다.

“그가 남긴 문장들은 우리 모두에게, 곁에 있는 이들과 더 깊이 연결되라는 초대장과도 같다.”

https://product.kyobobook.co.kr/detail/S000001029280

Continuous Learning_Startup & Investment

31 Dec, 15:22


1. 좋아하는 일 해야한다. Passion will lead you to be the world class.
2. 잘하는 방법을 배워야한다. Strategic strength
3. 돈 벌 방법을 찾아야한다. Market & competition

실리콘 밸리 밖에서 태어난 창업자들은? 왜 Spotify, Shopify는 가능했을까?
실리콘 밸리에서할 수 없지만 내가 할 수 있고 승리할 수 있는 전략은 무엇인가?

1. Spotify: 스칸디나비아 record label-> expand
2. Shopify: ecommerce는 아마존 때문에 안되라고 했지만 현실은 작은 ecommerce들이 많이 생기고 있었음.

실리콘 밸리를 잘 알고 있기 때문에 경쟁을 피하면서 좋은 전략을 실행할 수 있었음.

Awareness + “irrational ambition”.
비이성적으로 야심찬 사람이지만 경쟁상황을 직시해야함. 야만만 크다면 한번의 운이 따를 수 있겠지만 장기적으로 쉽지 않음.

스타트업은 시작할 때부터 죽을 운명인데 어떻게 살아갈 것인지 답을 찾아나가야함.
- 이 사업이 크면 왜 엄청 커지는지? 커지는 과정에서 큰 문제는 무엇이고 그 문제를 해결할 Plan A, B, C는 무엇인지?
- 이 시장은 어떻게 생겼으며, 경쟁에서 중요한 것은 무엇이고, 우리가 이길 수 있는 이유는 무엇이고, 기술의 흐름이 왜 우리에게 유리한지 그래서 결국 이 게임의 승자는 우리인지?

주변에 가장 똑똑한 사람들에게 가서 어떻게 생각하는지? 망한다면 왜 망한다고 생각하는지 이야기를 들어볼 것. 그리고 그것에 대한 플랜을 고민해볼 것.
- (소프트웨어 비즈니스라면) 왜 내가 글로벌 경쟁에서 이길 수 있을까?
- LinkedIn, Airbnb 둘다 주변에 똑똑한 동료들이 망할거라 했고 리스크를 알고 있었지만 이 아이디어가 되기만하면 엄청 큰 변화였고 그 리스크에 대한 계획들(Plan A, B, C etc)가 있었음.
- 우리 사업이 잘 안된다면 왜 잘 안될까? 그 위험을 어떻게 관리할 것인가?
- 망할 가능성은 높지만 성공했을 때 큰 리턴이 있는가?

Persistence <> Flexibility
끈질기게 밀어붙일 것인가 유연하게 바뀔것인가?

PayPal success
1. 똑똑하고 야망있는데 대중들과 다른 뷰를 가진 집단이 모여서 성과를 만들었고 적절한 타이밍에 엑싯했다.(IPO->Exit)
2. 이 돈을 바탕으로 새롭게 다가오는 웨이브를 다른 사람들보다 먼저 봤고 Consumer Internet, Enterprise Software, Greentech(Youtube, Linkedin, Tesla)등 새로운 아이디어로 창업/투자했고 더 많은 성공을 했다.

Importance of Sales
- 파운더는 훌륭한 인재들이 회사에 합류하도록 투자자들이 투자하도록 설득해야한다. 이 때, 단순히 큰 비전과 더불어 이 비전까지 가기 위해 있는 허들에 대해서 인지하고 있으며 어떤식으로 해결할 것인지에 대한 객관적인 현실인식이 중요하다. 이 문제를 해결하는 것보다 인지하고 있는 것이 중요하다.

Hiring
- 창업자가 본인 시간의 1/3을 채용에 안쓰면 문제가 있다. 좋은 인재는 실행의 질과 퀄리티를 결정하고, 채용의 바를 낮추면 제품과 GTM이 떨어진다.
- 채용을 위한 Routine이 필요하다. 역할을 정의하고, 항상 좋은 인재 풀에 노출되라.
- 평판이 인터뷰보다 중요하다. 실제로 일해본 사람들(추천받지 않은 사람들)의 의견을 물어봐라. 강점과 약점을 물어보고 일관된 평가를 받는지 물어봐라.
- Paypal Target Talents: Short Experiences & Insanely Learning curve

Networking

- 전략적으로 멘토, 투자자, 파트너, 잠재 채용하는 사람들과 관계를 구축해라.
- 훌륭한 팀을 만드는 것은 Co-founder/Star employee/ potential customers과 관계를 만드는 것이다.
- 네트워크는 항상 일찍. 진심을 다해(서로의 이익을 위해). 장기간에 걸쳐 구축해라.

Great Founders
- 누구도 day1부터 잘하진 않고 계속해서 배워야한다.
- 피벗을 할수도 있고 시장, 기술 모든 것이 바뀌기 때문에 상황을 인지하고 계속 배워야한다.
- 강한 팀을 만들고 강한 신뢰를 만드는 것이 슈퍼파워다.
- 위기(경쟁사/기술&시장의 변화)에서 살아남는 것이 중요하다. 스트레스가 극심한 상황에서 패닉에 빠지지 않고 문제를 해결할 수 있는 것(회복탄력성)이 중요하다. 삶에서 힘든 경험이 무엇이었고 어떻게 생존했는가?

Risk

- 다른 사람들은 미쳤다고 하는데 20-30% 의 성공 가능성을 보고 있다면 당신의 Edge일 수 있다.
- Safe Route는 치열한 경쟁이 있다.
- Big vision을 가지되 다양한 Plan B를 가지고 있어라.

Marriage & Life

- Linkedin의 빠른 성장 때문에 결혼식 일정을 다시 잡았다.
- 파운더들은 인생의 파트너가 스타트업의 요구사항을 잘 이해할 수 있도록 커뮤니케이션해야한다. 그렇지 않다면 상대는 큰 분노를 느끼거나 혼란스러워할것.
- 내가 지금을 살고 있나가 중요하다. 그래서 관계를 완전히 희생시키지 않기 위해서 신경쓸것.

https://youtu.be/eTkFItOG3Kk?si=PXBa7XOw7MgP9cRs

Continuous Learning_Startup & Investment

31 Dec, 09:20


강준열 파트너님

Continuous Learning_Startup & Investment

30 Dec, 03:39


이호연님

*기본기에 대한 짧은 생각*

요즘 엔지니어들과 이야기를 나누는 주요 토픽 중 하나는 ‘기본기’를 어떻게 쌓아야 하냐는 것이었다. 특히 신입이나 주니어 엔지니어들은 커리어에 대한 고민이 많은 시기이다 보니, 선배 개발자들이 강조하던 ‘기본기’를 어떻게 기를 수 있는지에 대해 많이 궁금해하는 것 같았다.

나도 사실 엔지니어의 성장을 논할 때 기본기를 항상 이야기하는 편인데, 이게 무엇인지에 대해 정의하려고 하면 막상 명확한 답은 떠오르지 않았던 것 같다. 사람들이 종종 이야기하는 CS 지식이나 알고리즘 같은 소위 하드스킬을 기본기라고만 하기엔 조금 애매한 부분이 있다.

그래서 곰곰이 생각해봤는데, 기본기가 쌓여 나간다는 그 ‘느낌’은 대체로 어떤 문제를 더 ‘잘’ 해결하려고 하는 과정에서 많이 왔던 것 같다. 책이나 강의를 통해 배울 수 있는 영역들만으로는 잘하기 어렵다. 더 잘하기 위해서는 수면 아래에 있는 것들을 찾아 원리를 정확히 이해하고, 개선이 필요한 부분을 찾아 부러뜨려야 한다. 이 부분은 전적으로 본인의 주체적인 의지로만 가능하며, ‘암묵지’라는 형태로 존재할 수도 있겠다

우리가 어떤 일을 하더라도 ‘잘’할 수 있는 부분은 분명히 있을 것이고, 그를 위한 시도를 계속하다 보면 자연스럽게 성장할 수 있을 것 같다. 그 과정에서 기본기는 자연스럽게 따라온다고 본다. 우리가 맡은 일을 '잘'하기 위해서 끊임없이 호기심을 품는 것. 그게 기본기를 쌓기 위한 필요 조건이지 않을까 싶음!

Continuous Learning_Startup & Investment

28 Dec, 08:57


슈퍼 파운더 강준열님 추천

스타트업 세계에는 많은 조언들이 떠돈다. 그러나 이들 조언들이 과연 사실에 부합하는지는 따져보지 않는다.
이 책은 크게 성공한 스타트업과 비슷한 시기에 시작했지만 성공하지 못한 스타트업들을 통계적으로 유의한 수준으로 샘플링해서 나온 결과로 이런 조언들의 사실 부합여부를 따져본다.(물론 미국 사례이기 때문에 한국과는 당연히 안맞을 수 있다. 나중에 기회가 있으면 한국에서도 데이터를 모아서 비슷한 연구를 해보면 좋을 것 같다.)
다음은 사실과 부합하지 않는 주장들이다.
크게 성공한 스타트업의 창업자들은 큰 위험을 기꺼이 택할 수 있는 젊은이들이 많다는 주장들이 있다. 실제로는 성공한 스타트업과 실패한 스타트업간의 창업자의 연령차이는 없으며 평균 나이는 34세이다.(예순여덟살에 창업해서 성공한 사례도 존재한다.) 이 말은 곧 적든 많든 창업자의 나이는 기업의 성공과 크게 상관 없다는 뜻이다.
함께 창업할 파트너가 없는 창업자는 실패할 것이라는 근거 없는 믿음이 있다. 실제로는 성공한 스타트업의 다섯곳 중 하나는 1인 창업을 했다. 1인 창업을 포함해 창업자의 수에 관한 어떤 창업 시나리오에도 특별히 유리하거나 불리한 점이 없음을 알 수 있다.
기술적 CEO와 비기술적 CEO 중 어느 쪽이 더 나은가 하는 문제는 스타트업 업계에서 유명한 논쟁거리다. 데이터를 보면 두 방식 모두 동일한 가치를 지닌다. 실세로 성공한 스타트업의 창업 CEO 비율은 비지니스 분야 출신 50.5%, 기술 분야 출신이 49.5%로 거의 절반에 가깝다.
경이로운 대학 중퇴자들의 사례는 널리 알려져있다. 그러나 데이터를 보면 성공한 스타트업 창업자 대부분은 대학교를 자퇴하지 않았다. 다만, 어느 대학교를 나왔는지는 조금 다르다.
창업가를 꿈꾸는 사람들에게 어떤 사람들은 기업 근무 경험이 중요하다고 이야기하고 어떤 사람들은 가능한한 빨리 창업하는 것이 낫다고 조언하는데 데이터를 보면 두 접근 방식 모두 효과가 있다. 다만, 어떤 기업들은 성공한 스타트업 창업자들의 원천으로 명성이 높다.
또, 사람들은 창업가가 ‘판도를 바꿔놓으려는’ 산업에서 직접 일한 경험이 있어야한다고 오해한다. 그러나 데이터에 의하면 전문 산업 지식을 보유했느냐 여부가 성공률에 영향을 미치지 않았고, 전체적으로 보면 관련 산업의 전문성이 있다고 유리하거나 불리하지는 않았다.
여러 사람들이 창업자는 수십년 간 개인적인 문제로 고통받은 끝에 그 문제를 해결할 사명감으로 창업에 나선다고 주장하고 있는데 이건 대부분 성공 이후에 만들어진 스토리일 가능성이 높다. 데이터로만 보면 오히려 시장이나 고객 형태 또는 트랜드를 선택한 뒤 해결해야할 문제를 찾아 나서는 경우가 더 일반적이다.(물론 자신이 풀고자 하는 문제에 사명감을 느끼면 더 열정을 가지고 일할 수 있다.)
흔히들 비타민 보다는 진통제 유형의 문제를 풀어야지 성공할 수 있다고 하는데 데이터를 보면 놀랍게도 성공한 스타트업 중에 비타민 제품 기업들이 생각보다 많다. 거의 1/3에 해당한다.
이미 시장이 큰 경우보다는 완전히 새로운 수요를 창출하는 기업이 성공할 가능성이 높다는 믿음도 미신이다. 데이터를 보면 시장 점유율 경쟁을 벌이는 기업들이 더 많은 가치를 만들어낸다.
타이밍이 중요하다는 점은 중요해보이기는 하나 데이터로 검증하기 어려운 주제이다.(정량화하기 어려운 주제이기 때문이다.) 그러나 이 책의 저자에 의하면 탁월한 벤처캐피털의 중요한 질문 중 하나는 “왜 지금인가?”이다.
거대 기업들이 이미 장악한 시장에 진출하는 스타트업이 불리할 것이라고 많이들 보지만 놀랍게도 데이터에 의하면 성공한 스타트업의 절반 이상은 다수의 거대 기존 기업에 맞서 싸웠다.
엑셀러레이터가 큰 가치를 제공하지만(와이컴비네이터등…) 사실 성공한 스타트업의 85%는 어떤 엑셀러레이터 프로그램도 거치지 않았다.(엑셀러레이팅 프로그램들은 주로 최초 창업자에게 많이 유리했다.)
다음은 통계적으로 유의한 결과가 나오는 주장들이다.
성공한 스타트업의 창업자들이 대부분 일류대학 출신이라는 것은 데이터를 통해서 지지된다. 이때 일류 대학이 모두 똑같이 중요한 것이 아니라 대학문화와 위치에 따라서 달라진다. 즉 강력한 창업 기업가 문화를 조성한 대학교인 USC나 미시간대학교, 브리검영대학교가 프린스턴, 칼텍, 시카고 대학교보다 더 많은 성공한 창업가들을 배출한다. 다만 이것이 투자자들의 편견(학벌선호?)때문인지는 확인하기 어렵다.
성공한 스타트업 창업가들 중에 많은 비율이 구글, 오라클, IBM과 같은 특정 기업 출신들이 많다. 물론 이것이 투자자들의 주목을 끌기 때문에 그런것인지 진짜 다른 효과가 있는지는 확인이 어렵다.
뚜렸하게 스타트업의 성공율에 큰 영향을 주는 것은 ‘수퍼 파운더’이다. 즉, 반복해서 창업하는 사람들의 가치는 더욱 두드러진다. 데이터를 통해서 확인되지만 과거에 성과가 좋은 기업을 창업했던 자들은 수십억 달러 기업을 창업할 가능성이 훨씬 높았다.(스타트업에 창업이 아니라 합류해서 성공을 노리는 사람이라면 수퍼 창업자가 창업한 기업을 찾으면 성공 가능성을 높일 수 있다.)
데이터로만 보면 성공한 스타트업의 50% 이상이 실리콘벨리에 근거지를 두고 있다. 하지만 일부 기업들은 초기 성공 이후에 실리콘벨리로 옮겨온 사례가 꽤 있다.
여러 사례에서 대규모 투자를 유치한 스타트업과 경쟁하는 다른 스타트업은 성공할 확률이 매우 낮은것으로 보여진다.
다양한 형태의 방어 가능성(아마 해자의 의미로 쓴 듯하다)을 잘 갖춘 스타트업은 성공할 확률이 훨씬 높다. 성공한 스타트업의 대부분은 해자가 명확했는데 성공하지 못한 스타트업은 45%가 해자가 특별히 없었다.
성공한 스타트업의 60%는 세콰이어, A16z, 벤치마크, 엑셀등 최상위권 벤처 캐피털의 투자를 받았다. 성공하지 못한 그룹은 20% 정도를 이들에게서 투자를 받았다.
책에는 케이스별로 풍부한 사례들이 나와있다. 사례를 더 알고 싶은 분들은 일독을 해도 괜찮을듯하다.(주장하는 내용은 여기 정리한 것에서 크게 벗어나지 않기는 하다.)

https://m.yes24.com/Goods/Detail/109648342

Continuous Learning_Startup & Investment

24 Dec, 23:20


City of Tokyo released a 3D digital twin of the entire city in high resolution point cloud, free to download. It’s an inevitable trend that more and more cities, houses, and factories will be transported into simulations.

Robots will not be trained in isolation. They will be simulated as an “iron fleet”, deployed in real-time graphics engines, and scaled across a huge cluster to produce the next trillions of high quality training tokens. The majority of embodied agents will be born in sim, and transferred zero-shot to our real world when they are ready. They will share a “hive mind” that sends latent embeddings back and forth to coordinate a multi-agent physical task.

Fun fact: NVIDIA’s Santa Clara Headquarter buildings are designed and rendered in Omniverse, a GPU-accelerated graphics platform, before materializing in atoms.

Tokyo digital twin: https://lnkd.in/gVrxfmBN

Continuous Learning_Startup & Investment

24 Dec, 14:55


https://youtu.be/QVcSBHhcFbg

반도체 덕질하는 사람은 이런 생각을 하는구나.

스케일링 한계’ vs. 현실
OpenAI의 Ilia가 “인터넷 텍스트 데이터는 유한하다“고 언급, ‘데이터 고갈 → 사전학습 한계‘가 제기.
전통적인 스케일링 법칙은 “더 많은 컴퓨팅 자원(Compute)과 더 큰 모델(파라미터 수), 그리고 더 많은 학습 데이터“가 결합되면 성능이 향상된다는 것.
만약 사용할 새 데이터가 부족해지면 모델 크기만 계속 늘리는 게 과연 효과적인가에 대한 의문이 제기됨.

Dylan은 “아직 영상·대체 데이터 등 활용할 여지가 많고, 합성데이터(synthetic data) 생성으로 부족분을 메울 수 있음“다고 생각.

동영상·비디오 데이터 등 ‘미개척 데이터’
실제로는 텍스트 외에도 엄청난 양의 비디오 정보가 존재하지만, 아직 활용되지 않은 영역이 크다는 반론이 나옴.
텍스트가 압축 효율이 좋기에 그간 학습이 빠르게 진행되었으나, 앞으로는 비디오 데이터 등으로 확장할 수도 있음.

합성데이터(Synthetic Data)의 등장
데이터가 부족하다면, 모델이 직접 합성데이터를 생성해 학습에 활용할 수 있다.
특히 결과의 옳고 그름(기능적 정답)이 명확히 검증 가능한 도메인(예: 코드 컴파일, 수학 증명, 엔지니어링 설계 등)에서 합성데이터가 강력한 성능 향상을 유도할 수 있음.
모델이 여러 경로(rollout)로 결과물을 만들어 보고, 테스트나 컴파일 등 기능적 검증을 통과하는 결과만 ‘정답 데이터‘로 재학습하는 방식.

추론(테스트) 시점의 추가 연산(Reasoning)과 ‘학습‘의 결합
단순히 모델 규모만 키우는 것이 아니라, 모델에게 여러 단계 추론을 시켜 “스스로 데이터를 생성·검증“하게 하고, 그 결과를 다시 훈련에 반영할 수 있음.
이는 사람이 문제를 풀 때 여러 가지 아이디어를 시도하고, 잘못된 시도를 버리며 더 나은 해법을 찾는 과정과 유사.

스케일링 한계가 아직 확실히 증명되지 않음
“스케일링이 log-log 축에서 기하급수적 투자(예: 10배 더 큰 투자)를 요구하긴 하지만, 합성데이터/추론 강화 기법이 초기 단계에 불과하기 때문에 아직은 개선 여지가 많다“는 견해가 제시됨.
데이터가 부족해도, 새로운 ‘데이터 생성·검증’ 방식을 활용해 모델을 계속 발전시킬 수 있다고 봄.

----
“Pretraining이 정말 끝났다면, 왜 더 큰 클러스터를 지을까?”

실제 빅테크의 움직임: 훨씬 큰 클러스터 건설
그러나 현실에선 MS, Meta, 구글 등이 수십만~수백만 GPU 노드의 초대형 클러스터를 계속 증설.
예: meta가 20~30만 GPU 규모, Microsoft가 추가 데이터센터 여러 곳, X(옛 트위터) 등도 대규모 계획 발표.
“만약 정말 사전학습 효과가 다 끝났다면, 왜 이토록 많은 전력·자본을 들여 클러스터를 짓는가?” 하는 의문이 생김.

스케일링의 log·log 곡선과 합성데이터
사전학습은 데이터와 파라미터를 기하급수적으로 늘리면 성능이 개선되지만, 갈수록 투자 대비 성능 향상(마진)이 줄어드는 ‘로그적(log) 성격’을 띤다.
문제는 비싸지더라도 여전히 성장 가능성이 존재한다는 것.
합성데이터(Synthetic data)·추론(Reasoning) 기법이 초기 단계에 불과하여, “데이터 부족“을 극복하고 추가 성능 향상을 이끌 여지가 남아 있음.

경쟁 역학관계 때문에 ’10배 투자‘가 합리적
각 빅테크가 경쟁사의 모델보다 뒤처지지 않으려면, “100,000 노드 → 200,000~300,000 노드“로 클러스터를 키우는 것이 합리적인 선택.
당장 예전처럼 파라미터 수를 단순 10배 늘리는 것이 예전만큼 큰 개선폭을 주진 않아도, “경쟁 우위“를 유지하기 위해선 대규모 투자가 여전히 필요.

합성데이터·새 기법으로 오히려 빠른 속도의 모델 개선 가능
OpenAI 등이 “Orion” 대신 “01" 같은 다른 축의 모델(새로운 접근)을 발표한 것도, 단순히 규모를 키우는 대신 새로운 기법을 도입했기 때문.
일부 전문가들은 “향후 6개월~1년 사이, 합성데이터 생성 + 학습의 새 방법론을 통해 기존 대비 더 빠르게 모델이 발전할 수 있다“고 전망.

데이터센터 투자 증가가 곧 ‘사전학습은 아직 끝나지 않았다’는 증거
실제로 수십 기가와트(GW) 규모 데이터센터가 건설 중이고, 광케이블·전력 인프라에 수십억 달러가 투입되고 있음.
이는 전형적인 “스케일링이 끝났다“는 서사가 현실과 맞지 않음을 보여줌.
“Pre-training + (합성데이터/추론 기반) 후속 학습“을 계속 키우기 위해서라도, 대형 클러스터와 막대한 인프라가 필요하다는 논리.

---
Inference Time Reasoning
추론(Inference) 단계에서의 Reasoning은 계산량이 훨씬 크다
Inference-Time Reasoning이 왜 기존 Pre-training보다 계산량이 큰가?
일반적으로 **사전학습(Pre-training)**은 모델을 한 번 훈련해 놓으면, 이후 추론(Inference)에서는 상대적으로 적은 비용으로 결과를 낼 수 있다.
그러나 **추론 시 Reasoning(중간 사고 과정)**을 수행하는 최신 모델들(예: ‘01 모델‘)은 사용자가 질의할 때마다 내부적으로 수많은 토큰을 생성·평가한다.
예: “간단한 프롬프트 → 1,000개의 답변 토큰“이 아니라, 내부적으로 10,000개 이상의 토큰을 ‘생각‘하며 최종 1,000개만 사용자에게 보여줄 수 있음.
이런 ‘추론 중 사고 과정(Chain-of-thought)’은 기존 사전학습 때 한 번 발생하는 비용과 달리, 매 질의마다 발생하여 계산 부담이 훨씬 커진다.

구체적인 비용 상승 메커니즘
토큰 수 증가: Reasoning 모델은 출력(답변)보다 훨씬 많은 중간 토큰을 생성·버린다. 결과적으로 10~50배 이상의 토큰이 소모될 수 있음.
배치 크기(동시 사용자 수) 감소:
중간 사고 과정이 길어질수록, 한 번에 처리할 수 있는 동시 사용자 수(배치 사이즈)가 크게 줄어든다(예: 1/4~1/5 수준).
따라서 동일 성능을 유지하려면 더 많은 GPU 리소스가 필요해 비용이 증가한다.
예시로, ‘01 모델’은 기존 GPT-4(40) 대비 토큰·메모리 사용량이 폭증하여 단일 질의당 비용이 50배 이상 늘 수도 있다는 시뮬레이션 결과가 언급됨.

이러한 추가 비용을 감당할 가치가 있는가?
고급 Reasoning 모델은 기존 모델이 못했던 작업(예: 복잡한 코딩, 논리적 추론, 문제 해결 등)을 수행할 수 있다.
즉, **“이전에 불가능했던 서비스“**를 제공할 수 있으므로, 공급자는 가격을 높게 책정(토큰당 가격 인상)해도 고객들이 지불 의향이 있다.
실제로 사용된 예시:
오픈AI가 최신 Reasoning 모델(예: 01)을 기업 고객 대상 프라이빗 베타 형태로 제공하면서, 토큰당 비용을 10~50배 더 높게 책정해도 개발 생산성 향상 등 ROI가 충분하다고 판단.

결과적으로 더욱 큰 GPU/메모리 자원 수요
추론 단계에서 매우 긴 컨텍스트(중간 사고 토큰)로 인해 HBM(고대역폭 메모리) 용량, GPU 성능 모두 급증 필요.
개발사나 클라우드 제공자는 “높아진 운영 비용“을 고객(개인·기업)에 일정 부분 전가해도, “새로운 고부가가치 작업“이 가능해진다는 점에서 시장이 형성됨.
반면, 고객센터 등 단순 대규모 요청에는 “가성비 좋은 소형 모델“을 써서 비용을 최적화하는 이원화 전략도 나타남.

Continuous Learning_Startup & Investment

24 Dec, 14:55


앞으로의 전망
현재 Reasoning 모델은 초기 단계이지만, 추가적으로 학습(Reasoning 강화)에 투자할 여지가 크다.
모델이 새롭게 “합성데이터“나 “추론 중간 과정“을 더 많이 활용해 스스로 학습할 수 있게 되면, 향후 6~12개월 사이 성능·활용 범위가 더욱 급상승할 가능성이 높음.
이러한 고급 Reasoning 모델 수요는 곧 데이터센터·GPU 인프라 확장을 더욱 촉진하고, 엔터프라이즈 시장에서의 수요도 예상을 넘어 성장할 수 있다는 분석이 뒤따름.
-----
NVIDIA 점유율 vs. Google TPU
(타 빅테크 제외 시) 글로벌 AI 워크로드에서 NVIDIA가 98% 수준 점유.
그러나 Google 내부 생산성(검색·광고) AI 워크로드의 상당 부분은 TPU를 사용하므로, 전체적으로 보면 대략 70% 수준으로 추산됨.
Google TPU 활용
Google은 대규모 검색·광고 등 자기 워크로드는 TPU를 주로 활용하지만, 클라우드 외부 고객에게는 주로 NVIDIA GPU를 빌려줌.
즉, 내부용=TPU, 외부(Cloud)=NVIDIA라는 이원화된 구조.

1. NVIDIA의 Edge (세 가지 경쟁 우위)

소프트웨어 생태계
대부분의 반도체 기업은 소프트웨어 역량이 미흡하지만, NVIDIA는 CUDA 등 강력한 SW 스택을 보유.
고급 라이브러리·드라이버·분산 학습 툴·Fleet Management 등이 체계적으로 갖춰져 있어, AI 모델 개발·훈련·추론 과정의 생산성을 대폭 향상시킴.

하드웨어(칩) 설계·공급망 추진력
최신 기술(공정·패키징·냉각·전력관리 등)을 누구보다 빠르게 양산화하여 매년 새로운 아키텍처(GPU) 출시.
엔비디아는 Mellanox(네트워킹) 인수로 초고속 인터커넥트(NVLink/NVSwitch)까지 통합 솔루션을 완비.
“칩만” 제공하는 수준이 아닌, **랙 단위 시스템(예: Blackwell 랙·DGX 서버)**까지 설계·판매해 고객 부담을 줄인다.

네트워킹 및 시스템 설계
대규모 모델(수천억~수조 개 파라미터)을 구동하려면 여러 GPU를 고대역폭으로 연결해야 함.
NVLink와 NVSwitch, 그리고 Mellanox 기술로 큰 규모의 클러스터를 단일 슈퍼컴처럼 구성.
이는 AMD·커스텀 Asic 등 경쟁자들이 쉽게 구축하기 어려운 강력한 경쟁 우위가 됨.

종합적으로, 소프트웨어 + 최신칩 + 네트워킹이 결합된 ‘3두용(three-headed dragon)’ 구조가 NVIDIA의 에지(Edge).

2. Incremental Differentiation (점진적 차별화)
공급망·생태계를 밀어붙이는 실행력
엔비디아는 공급망 전단계(메모리, 옵틱스, 전력, 쿨링 등)와 긴밀히 협력해 새로운 기술을 연간 또는 그보다 빠른 주기로 시장에 선도적으로 내놓는다.
예: Blackwell, 후속 아키텍처, 랙 스케일 시스템 등을 ‘매년’ 수준으로 개선·출시해 경쟁사들이 따라잡기 어렵도록 함.

“현재의 상황을 유지하는 것은 곧 도태“라는 편집증적 기조를 가진 창업자
CEO 젠슨 황의 전략: 경쟁사가 조금이라도 틈을 보이면 추월할 수 있으므로, 끊임없이 성능·TCO를 5~10배씩 높이는 것을 목표로 삼음.
이를 위해 소프트웨어 최적화, 시스템 설계, 신규 칩 개발 속도를 모두 독보적으로 빠른 주기로 실행.

3. 잠재적 취약점(Potential Vulnerabilities)
초대형 고객(하이퍼스케일러)의 자체 칩 전환 가능
MS, Amazon, Google, Meta 등이 TPU·Tranium·커스텀 Asic을 개발·도입하면, 일부 워크로드에서 NVIDIA 의존도가 줄어들 수 있음.
특히 추론(Inference)에서는 CUDA 의존도가 비교적 낮아, 성능·가격 경쟁력이 비슷해지면 대체 위험.

고성능 하드웨어에만 의존하면 경쟁사도 빠르게 추격
점유율을 지키기 위해선 소프트웨어·시스템 통합 우위를 유지해야 하며, 엔비디아가 잠시라도 속도를 늦추면 AMD나 커스텀 칩 업체가 치고 들어올 수 있음.

‘가격 인하’와 마진 압박
AI 시장 규모가 커지면서 Amazon, Google TPU, AMD GPU, 기타 Asic 등이 성능을 높이거나 가격을 낮추면, 엔비디아는 경쟁력 유지를 위해 마진을 일부 희생해야 할 수 있음(이미 Blackwell 세대에서 마진 축소 움직임 언급).

4. GPU로의 전환이 데이터센터에 미치는 영향

CPU→GPU 기반 아키텍처로 재편
AI 대규모 워크로드(LLM 등)는 CPU로 처리하기엔 비효율적이므로, 데이터센터에 GPU 클러스터가 대거 도입되고 있음.
전세계 클라우드사는 ‘CPU 서버’를 줄이는 대신, GPU 혹은 다른 가속기 서버를 빠르게 증설하며 전체 전력·쿨링·네트워킹 설계를 새로 짜고 있음.

데이터센터 전력·인프라 증설
수백·수천 대 GPU가 한 곳에 집적되면 전력(기가와트 단위), 쿨링, 광케이블(파이버) 등 인프라 투자가 급증.
기존 CPU 서버보다 훨씬 높은 전력 밀도를 요구하므로, 데이터센터 규모나 전력 공급, 공간 설계가 대폭 바뀜.

엔비디아가 보는 ‘CPU 대체’ 시나리오
젠슨 황은 “기존 CPU 서버를 GPU 가속기로 대체하면, 전력·성능 효율을 높이고 고급 AI 워크로드까지 수행할 수 있어 1조 달러 이상의 시장 기회“라고 주장.
완전 대체라기보다는, 대규모 AI 수행을 위해 CPU 서버 vs. GPU 서버의 균형을 새롭게 짜는 과정으로 해석됨.

----
경쟁상황
1. 칩 경쟁 구도(Chip Competition) 개요
NVIDIA 독주가 분명하지만, 하이퍼스케일러(예: MS, Google, Amazon)나 AMD, 여러 스타트업(Asic) 등이 저마다 전략을 펼치며 추격 중.
주된 목표: 엔비디아 수준의 성능+에코시스템(소프트웨어, 네트워킹, 랙 스케일 시스템 등)을 얼마나 빠르고 저렴하게 구현할 수 있는가.

2. AMD

장점
실리콘 설계 역량: 인텔을 따라잡아 x86 시장을 크게 키운 경험이 있을 만큼 하드웨어적 기술력은 탄탄함.
GPU 자체 성능이나 HBM 활용 등은 우수하여, 일정 부분 엔비디아와 경쟁 가능.

약점
소프트웨어·시스템 생태계 부족: CUDA 같은 폭넓은 라이브러리와 대규모 분산 학습·최적화 툴을 갖추지 못함.
시스템 레벨 설계(랙 스케일, 네트워킹 등)에 대한 경험/투자가 미흡.
자체 내부 GPU 클러스터를 대규모로 운용해 소프트웨어를 치밀하게 개발·테스트하지 않음(반면 엔비디아는 슈퍼컴 다수 보유).

시장 전망
MS, Meta 등이 AMD에 소프트웨어·최적화 측면에서 일정 부분 협력 중이나, 엔비디아 수준 속도/생태계를 갖추긴 어려움.
2024~25년에도 GPU 매출은 늘겠지만, 엔비디아와의 격차가 크게 좁혀질 것이라는 기대는 낮음.

3. Google TPU

시스템·인프라 관점에서 강점
개별 TPU 칩만 보면 성능이 극적이지 않아도, Broadcom 등과 협력해 2018년부터 대규모 랙 스케일 아키텍처를 구축해왔다.
구글 데이터센터 내부에선 검색·광고·유튜브 등 핵심 AI 워크로드를 TPU로 돌려 대규모 실전 검증을 이미 진행.

외부 클라우드 임대 시장에서는 약점
소프트웨어 스택(특히 딥마인드 내부 툴)이 비공개인 경우가 많아, 외부 고객이 TPU를 쓰기 어렵고 지원도 제한적.
구글 클라우드의 GPU 임대료도 비싸지만, TPU 임대료 역시 협상 여지가 적어 시장 확대가 쉽지 않음.
구글은 클라우드 GPU 판매보다 자체 워크로드 운영(예: 광고, 검색)에 TPU를 더 많이 활용해 수익 창출.

향후 전망
Gemini(차세대 모델) 등 Google의 AI 서비스가 성공한다면, 간접적으로 TPU 사용량도 커질 수 있음.
다만 오픈 클라우드 시장에서 TPU가 엔비디아 GPU를 대체하기는 쉽지 않다는 평가.

4. Cerebras, Grok (스타트업 칩)

Cerebras
웨이퍼 스케일 엔진(WSE) 같은 혁신적 하드웨어로 주목.
특정 HPC·연구 분야에서 좋은 성능을 낼 수 있지만, 범용 생태계·대규모 소프트웨어 스택이 부족해 엔터프라이즈·클라우드 전반 대체는 제한적.

Continuous Learning_Startup & Investment

24 Dec, 14:55


Grok
스파스(sparse) 연산 최적화, 저전력 특화 등 독자 설계를 내세움.
고성능 대규모 클러스터보다 특화된 분야(엣지 컴퓨팅 등)로 진출 가능성이 있지만, 시장 전체에서 엔비디아 대항마가 되기엔 자본·생태계가 부족.
총평: 스타트업 칩은 기술적 혁신이 있으나, 소프트웨어·대규모 시스템 생태계 구축이 어려워 본격 대체재가 되긴 힘들다는 평.

5. Amazon’s Tranium
“Amazon Basics TPU”
아마존이 자체 설계한 AI 칩(Tranium, Inferentia)은 비교적 단순하고 저비용 구조로 대규모 환경에 최적화.
많은 메모리(HBM)와 높은 메모리 대역폭을 저렴하게 제공해 TCO를 낮춤.
네트워킹·칩 자체 효율은 엔비디아 대비 떨어지지만, 원가 구조와 자체 인프라로 가격 경쟁력 확보.
대형 클러스터 구축
AWS + Anthropic이 400,000개 이상의 Tranium 칩을 모은 슈퍼컴퓨터를 구축할 계획.
트레이닝(Training) 목적 대규모 클러스터에는 적합할 수 있으나, 추론(실시간 응답)용으로는 분산 배치가 필요해 단점도 존재.

전망
효율·성능 면에선 엔비디아에 미치지 못하나, “AWS 에코시스템 + 저렴한 비용“이라는 장점으로 특정 고객군에 매력.
아마존은 엔비디아 의존도를 줄이고 싶어 하며, 내부적으로 Tranium을 통해 점차 경험·생태계를 확장하는 중.

----
What is future?

초고가 모델 vs. 저가 모델: 이중 시장 구조
대형 모델(예: ‘01 모델’ 등)은 뛰어난 성능(Reasoning, 생산성 향상)을 제공하지만, 비용이 매우 높음.
작은 모델(예: Llama 7B, ‘40 mini’)은 훨씬 저렴하게 운영 가능하며, 이 때문에 오픈소스·네오클라우드 등에서 경쟁이 매우 치열해지고 있음.
큰 모델이 압도적 성능으로 고부가가치 업무(예: 엔지니어링, 고급 코딩) 처리에 사용되면, 높은 가격을 매겨도 기업 입장에서 비용 대비 효용이 높아 수요가 꾸준함.
한편, 대규모 고객서비스(콜센터 등)처럼 “최고 성능이 필요치 않은” 곳은 작은 모델이나 오픈소스 모델로 비용 최적화를 추구할 수 있음.

경쟁 구도: “최고 모델 vs. 값싼 모델”
최고 성능 모델을 개발·판매하려면, R&D·GPU 인프라·SW 최적화 등에 막대한 자본이 필요.
만약 이를 실패하거나, 고객이 지불할 가치(ROI)를 못 증명하면 경쟁에서 도태됨(“race to the bottom”).
실제 API 시장에서 오픈소스 모델·다양한 스타트업이 등장하여 가격 인하를 유도하지만, 가장 뛰어난 모델을 제공할 수 있는 기업은 소수에 불과함.

고객(엔터프라이즈) 측의 의사결정
최고 성능 모델(예: 오픈AI 01, Anthropics 고급 모델 등)에 지불해 생산성을 20~50% 높일 수 있다면, 연봉이 높은 개발자·분석가 비용 절감 효과가 커서 투자 가치가 높음.
따라서 “가장 비싼 모델이 결과적으로 더 싸게 먹힌다“는 논리가 성립 가능(고급 지식 노동 대체/보조).
반면 단순 질의나 대량 트래픽 처리에는 작은 모델이 합리적.

차기(2025~2026) 전망
**하이퍼스케일러(구글, MS, 메타 등)**의 투자 기조
2024~2025에는 대규모 데이터센터·GPU 투자가 계속될 것으로 보이지만, 2026년쯤 “과잉 투자 or 모델 발전 한계” 여부가 분수령이 될 수 있음.

Broadcom, Marvell 등 커스텀 Asic, 네트워킹 솔루션 업체들이 부상 중.
예: Meta는 추천시스템용 커스텀 칩, AWS(아마존), 구글, MS 등 자체 칩도 늘어나는 추세.
이들이 실제 상품화·양산에 성공할 경우, 엔비디아 독주를 어느 정도 분산시킬 가능성 있음.

Neo Cloud(네오클라우드) 업체들의 정리(Consolidation)
전 세계적으로 80여 개 네오클라우드(소규모 AI 클라우드) 중 대부분이 가격 인하 경쟁에 밀려 사라질 것이며, 5~10곳만 살아남을 것으로 예측.

자본 유입 여부
중동·아시아 주권 펀드 등 막대한 자금이 아직 본격적으로 들어오지 않았으며, 향후 대규모 투자로 이어질 가능성 있음.
모델 발전이 지속되면, 수익 가능성을 본 투자자들이 더 큰 자금을 투입하며 시장 열기를 지속시킬 수 있음.

핵심 변수: 모델 품질과 실제 매출(Revenue) 성장
모델 성능이 빠르게 개선되면, 하이퍼스케일러들이 더 큰 규모로 투자하면서도 ROI를 맞출 가능성이 큼.
그러나 모델 발전 속도가 정체되거나, 매출 성장률이 기대만큼 따라주지 못하면 ‘투자 과잉’ 조정이 올 수 있음.
결국 **“GPU·데이터센터 투자 = 미래 매출 기대치“**라는 논리로, 기업들은 향후 2~3년간 경쟁적으로 설비 투자를 늘리는 중.

결론
AI 모델 시장은 “최고 성능“을 추구하는 소수의 대형 기업과, “비용 효율적 접근“을 노리는 다수 플레이어로 양분될 전망.
2024~2025년엔 대규모 투자·확장이 이어지겠지만, 2026년 전후로 모델 발전 한계·수익성 여부를 둘러싼 ‘대규모 조정’ 혹은 ‘계속 상승’ 시나리오가 갈릴 가능성이 높음.
투자·기술 발전 모두 모델 성능 개선과 매출 증대가 얼마나 일치하느냐가 관건으로, 업계는 여전히 ‘과잉 투자 vs. 성장 지속’ 사이에서 치열한 경쟁을 벌일 것으로 보임.

Continuous Learning_Startup & Investment

23 Dec, 12:59


- 우리 일상에 아직 AI로 10~100배 좋은 경험을 얻을 수 있는 일들이 더 많음.
- 작지만 강한 팀, 100명 미만의 1조 B2B 회사도 나올 수 있음.
- SaaS가 초기 비용이 크고 나중에 매출구조가 큰 Return을 얻을 수 있다면 AI 스타트업은 이 기울기가 훨씬 가팔라짐.
- 생각보다 빠르게 변화가 일어나고 있음.

• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
•2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
•여러 모델을 서로 다른 작업에 활용하는 회사 증가.
•일부 기업은 Series B/C 단계까지 특정 채용을 연기.


[Y Combinator의 2024년 리뷰]
무엇이 변화했는가?
• OpenAI/GPT Store의 지배 우려와 달리, 스타트업들은 번창함.
• Foundation Model 기업들이 가치를 독점하지 않았으며, 애플리케이션 계층이 매우 높은 가치를 증명.
• 오픈소스 모델(Meta의 Llama 등)이 성능 면에서 폐쇄형 모델에 빠르게 따라잡음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
성장
• “2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
• YC 참여 기업: 배치 중 3배 성장(주당 10% 성장).
• 벤 호로위츠: 연 매출 1억 달러를 달성하는 회사의 수가 연간 약 15개에서 약 1,500개로 증가.
주요 트렌드
1. 멀티모델 아키텍처
• 여러 모델을 서로 다른 작업에 활용하는 회사 증가.
• 2024년 가을 배치의 많은 기업들이 특정 작업에 가장 적합한 모델을 선택하는 멀티모델 아키텍처를 채택.
2. 음성 AI
• 여러 성공 사례를 포함한 주요 성장 분야.
• 승자독식 아님: 고객 지원, 언어 학습 등 다양한 Vertical Market에서 기회 존재.
3. AI 코딩
• Cursor 같은 툴이 널리 채택됨.
• 채용 방식 변화: 기업들이 AI 코딩 스택에 능숙한 엔지니어를 선호하며 더 많은 성장 잠재력을 모색.
주목할 만한 실패 사례
1. AR/VR의 어려움
• Apple Vision Pro와 Meta Quest가 대중화에 실패.
• 물리적 제약(하드웨어 크기, 비용 등)이 주요 장애물.
• 핵심 사례: 현재 가장 유망한 사용 사례는 “대형 모니터“로 활용하는 것.
2. 하드웨어의 한계
• 로보틱스와 AR/VR 같은 분야에 큰 영향을 미침.
• 하드웨어는 여전히 제작이 어렵고 비용이 매우 높음.
구조적 변화
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 일부 기업은 Series B/C 단계까지 특정 채용을 연기.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
• 대면 근무로의 큰 전환과 샌프란시스코 기술 생태계의 부활.

Continuous Learning_Startup & Investment

05 Nov, 19:30


Ravi Gupta resigned from KKR and expected hell from Henry Kravis. Instead, he got a masterclass in leadership and a secret confession…

In 2015, Ravi Gupta was a high-flyer at private equity firm KKR. But he had been approached to leave his well paid, comfortable role and join a scrappy start-up.

Ravi took the plunge and quit his job.

However, soon after resigning he was summoned to fly to New York to meet founder of KKR and investing legend – Henry Kravis.

Ravi assumed this meeting would be an attempt to convince him to stay or a scolding from Henry. He couldn’t have been more wrong. Henry asked Ravi to sit down, and immediately congratulated him on his move.

Ravi was stunned: “Henry wanted to share the story of how he and George started KKR. He said he respected my desire to go help build something.” But Henry’s masterclass in leadership wasn’t the most memorable thing about their meeting. As Ravi was walking out, Henry stopped him…

Henry: “How old are you?”

Ravi: “I’m 33…”

Henry: “I would do anything to be 33 again…I would do anything to do it over again.”

Looking back on Henry’s parting comment nearly 10 years ago, Ravi recalled: “I didn’t understand it then. I do now.”

The start-up Ravi joined was Instacart, where he held roles as CFO and COO. Despite an incredibly challenging environment and fierce competition from heavyweights such as Amazon and Walmart, the company is now worth $12 Billion.

At 80-years-old, Henry shared his view on starting something new: “Don’t just talk about it, put both feet in and be dedicated - don’t be afraid to fail.”

Continuous Learning_Startup & Investment

05 Nov, 05:01


인공지능(AI) 붐 속에 미국 월가 금융기관들이 엔비디아의 AI 칩을 담보로 15조원에 이르는 대출을 해주면서 새로운 채권시장이 형성되고 있다.

4일(현지시간) 파이낸셜타임스(FT)에 따르면 블랙스톤·핌코·칼라일·블랙록 등 월가 금융기관들은 지난해부터 이른바 '네오클라우드' 업체들에 이러한 방식의 대출을 해주고 있다.

코어위브·크루소·람다랩스 등 네오클라우드 업체는 AI 제품을 만드는 기술기업들에 클라우드 컴퓨팅을 제공하며 생성형 AI 모델 개발에 필수적인 그래픽처리장치(GPU) 수만개를 보유하고 있다.

이들이 이를 담보로 빌린 자금 규모가 110억 달러(약 15조1천억원)에 이르며, 이를 이용해 엔비디아 칩 추가 구매 등에 나서고 있다.

북미 네오클라우드 업체 가운데 최대 규모인 코어위브는 GPU 4만5천개 이상을 보유하고 있으며, 최근 18개월간 기업 평가 가치는 20억 달러(약 2조7천억원)에서 190억 달러(약 26조1천억원)로 급증했다.

이 업체는 지난 1년간 엔비디아 칩을 담보로 블랙스톤·칼라일 등으로부터 100억 달러(약 13조7천억원) 이상의 자금을 조달했으며, JP모건·골드만삭스·모건스탠리 등 월가 투자은행들로부터 신용한도 6억5천만 달러(약 9천억원)를 확보했다고 이달 밝힌 바 있다.

금융그룹 매쿼리는 지난 4월 람다랩스에 5억 달러(약 6천884억원)를, 투자사 어퍼90은 지난해 크루소에 2억 달러(약 2천753억원)를 빌려줬다.

크루소는 지난주에도 투자사들로부터 5억 달러를 조달했고, 지난달에는 한 대체 자산 운용사와 34억 달러(약 4조7천억원) 규모 계약을 통해 텍사스 신규 데이터센터를 위한 자금을 확보했다.

다만 신제품 칩이 출시되고 있고 기업들의 AI 투자 붐이 잦아들 수 있는 만큼 기존 칩의 담보 가치에 대해 의문을 제기하는 시각도 있다.

https://n.news.naver.com/article/001/0015025977?sid=101&fbclid=IwY2xjawGWhetleHRuA2FlbQIxMQABHQJ90VivJ13XBbU4A5cjI3ytluQV8tYa8SxEHWn-exrv_7C6CI-WgkTcMw_aem_3Ijc0yFSp-qHJbhZ7C8ZDg

Continuous Learning_Startup & Investment

02 Nov, 19:20


Siemens has signed an agreement to acquire Altair, a leading provider of #software in the industrial #simulation and analysis market. With this acquisition we strengthen our position as a leading technology company and the leader in industrial software and #AI.

Continuous Learning_Startup & Investment

02 Nov, 16:58


팔란티어/Anduril이 B2B B2G에서 Network Effect를 만드는 방법

1. 그 분야에서 가장 어렵고 깐깐한 고객을 먼저 확보한다.
- Palantir: 국가 중에는 이스라엘 기업 중에는 Airbus와 협력했던 사례가 팔란티어의 다음 영업을 훨씬 쉽게 했다.
- Anduril: 이미 미국 정부와 협업을 많이 해오다보니 타사는 몇주 걸리는 NDA를 2-3일이면 끝낸다.

2. 여러 산업에 Case들을 만들고 확장하는 건 더 용이하다. 처음에 여러 포트폴리오(앤드릴의 경우에는 autonomous systems, AI-based surveillance, and defense technologie 등 넓은 포트폴리오가 고객 확보에 도움되었음.)를 가지고 고객을 확보한다. -> 하나 제품을 팔기 시작해서 업셀하기 용이하다.

https://youtu.be/QzjIfkNAp8U?si=RyiGBG8vL-t-fvGs

Continuous Learning_Startup & Investment

31 Oct, 15:19


https://www.instagram.com/reel/DByvvlUhyBu/?utm_source=ig_web_copy_link

Demanding, perfectionist, not easy to work with.

That’s exactly how it should be. To accomplish extraordinary things, it shouldn't be easy.

The most extraordinary achievements don’t come from magic. They come from hard work, every single day, for 61 years.

Continuous Learning_Startup & Investment

31 Oct, 14:55


저커버그를 만날 수 있다는 말을 듣고 나도 시간을 내어 그를 찾아다니기 시작했다. 그렇지 않아도 MPK로 오기 전에 페이스북 동료 한 명이 내게 '저커버그 만나기'에 대해서 이야기를 했었는데 나는 그것이 농담이라고 생각했던 것이었다. 하지만 아무리 찾아도 찾을 수가 없었다. CEO 집무실이 있을 만한 곳을 꽤 많이 돌아다녔지만 소용이 없었던 것이다.
도대체 어디 있는거야?
온보딩 세션을 같이 하는 동료에게 물어보니 어이없다는 표정을 지었다. 위치를 듣고 보니 나도 어이가 없었다. 매일같이 가던 식당 옆 빌딩에 들어가자마자 왼쪽 첫 번째에 있는 방이었다. 벽은 유리로 되어 있었고 밖에서도 누구나 안을 들여다볼 수 있었다. 괜히 깊숙한 곳을 찾아다닐 필요가 없었던 것이다.
위치를 알고 다음 휴식시간에 바로 찾아갔다. 마크는 사람들에 둘러쌓여 조금은 멋적은 얼굴로 케이크 위의 촛불을 끄고 있었다. 마크의 서른 번째 생일이었다. 잠시 기다렸다가 사람들이 흩어지자 그에게로 가서 인사를 했다. 한국에서 왔고 앞으로 잘해보겠다고. 마크는 웃으면서 환영한다고 말해주었고 악수를 했다. 기분좋을 만큼 힘이 꽉 들어간 악수였다.
다음 날 점심시간에도 마크를 볼 수 있었다. 다른 사람처럼 똑같이 줄을 서 있었다. 마크라고 해서 아무도 자리를 비켜주지 않았다. 마크는 앞에 있는 사람과 이야기하고 있었는데 딱 봐도 둘은 서로 잘 알지 못하는 사이였다. 그냥 페이스북에 다니고 있는 사람이면 누구나 점심시간에 줄을 서다가 마크를 볼 수 있고, 하나도 중요하지 않은 시덥잖은 이야기를 할 수 있었던 것이다.
그제서야 의문이 풀렸다. 어쩌면 나는 온보딩 기간 동안 꽤 많이 마크를 스쳐지나갔을 것이다. 그것이 마크였다는 것을 하나도 인식하지 못하면서.
--
온보딩의 마지막은 매주 금요일 오후 4시에 열리는 Mark's Q&A에 참석하는 것이었다. 한국에서도 라이브로 볼 수 있었던 자리에 실제로 참여할 수 있었던 것이다. 200명 정도 들어갈 수 있는 공간에서 진행되었는데 별도의 신청 프로세스는 없었다. 혹시라도 자리가 없을까 굉장히 조바심이 났다.
Mark's Q&A에 참석하는 것은 의무가 아니었다. 금요일 점심시간에 공식적인 온보딩은 모두 끝났기 때문에 원하는 사람들은 일찍 MPK를 떠날 수 있었다. 의외로 많은 동기들이 Mark's Q&A보다는 샌프란시스코 관광을 선택하러 나갔다. 잘 이해가 되지는 않았지만 경쟁자가 줄어 다행이라는 생각을 했다.
Mark's Q&A는 4시부터 시작했지만 혹시라도 자리가 없을까봐 점심을 먹은 뒤에 바로 Q&A가 열리는 자리에 갔다. 의자들이 깔려 있었지만 사람들은 아무도 없었다. 머쓱해진 마음으로 그곳을 떠나 건물 이곳저곳을 돌아다녔다. 가끔씩 불안해서 돌아와봐도 계속해서 아무도 없었다. 혹시 장소가 바뀐 것이 아닐까 하는 걱정이 들었지만 달리 할 수 있는 것은 없었다.
대신 두 시간 넘는 시간 동안 페이스북 사람들이 일하는 모습을 가만히 지켜볼 수 있었다. 층고가 굉장히 높았고, 하얀 책상에 월 마운트가 부착된 큼지막한 모니터가 두 개씩 있었고, 자리와 자리 사이에는 칸막이가 없었다. 높이를 조절할 수 있는 책상이라 군데군데 서서 일하는 사람이 많았다.
회의실도 많이 있었지만 자리에서 동료와 이야기하기도 했고, 주변의 동료들은 일을 하다 중간중간 끼어들기도 하고, 집중해야 할 필요가 있을 때는 노이즈캔슬링 헤드폰을 끼기도 했다. 뭔가 굉장히 자연스러웠다. 5일간의 온보딩 교육 때 느꼈던 것과 굉장한 일체감이 있었다. 공간과 사람, 그리고 문화가 잘 어울러진 느낌이었다.
Q&A에 참석할 자리가 없을까 걱정했던 것은 완전한 기우였다. 사람들은 3시50분이 되어서야 어슬렁거리면서 나타났다. 꽤 많은 사람들이 왔지만 빈자리도 군데군데 있었다. 일부러 자리에 앉지 않고 뒤편에 서서 참여하는 사람도 꽤 많았다. 늘상 있는 것처럼 모든 것이 자연스러웠다. 매주 진행되는 정기일정이었기 때문에 마음만 먹으면 언제라도 참석할 수 있고, 또 자기 자리에서 듣는 사람들도 많았기 때문이었다.
Mark's Q&A는 굉장히 인상적이었다. 마크는 10분 동안 자신의 생각을 이야기했고, 50분 동안 사람들의 질문을 받았다. 바보같은 질문이건, 어려운 질문이건 가리지 않았다. 어떤 질문이든 할 수 있었고, 자신이 대답할 수 없는 내용은 같이 참석한 셰릴이나 다른 동료에게 마이크를 넘겼다. 그러나 왠만한 질문에는 직접 답을 했다.
모든 질문에 똑같이 친절하게 답한 것은 아니었다. 간단한 질문에는 간단하게, 좋은 질문에는 굉장히 긴 시간을 들여서 자신의 생각을 이야기했다.
사람들이 앉아있는 의자들 사이에는 2-3개의 통로가 있었고 거기에 스탠딩 마이크가 있었다. 질문을 하고 싶은 사람들은 차례차례 줄을 섰다. 주머니에 손을 넣고 있는 사람도 많았고 아무도 격식을 따지지 않았다. 다만, 질문을 할 때에는 자신의 소속과 이름을 밝히고 시작을 했다. 페이스북은 '익명'을 굉장히 싫어하는 회사다. 어떤 말이든지 해도 좋지만 이야기를 할 때는 자신을 분명하게 드러내야 했다.
아무리 페이스북이라 하더라도 많은 사람들 앞에서 자신을 노출하는 것을 부담스러워 하는 사람들도 물론 많이 있었다. 페이스북은 그런 사람들에게도 '안전하다'는 인식을 심어주기 위해 노력했지만, 그러한 사람들을 필요 이상으로 배려하지는 않았다. 가령, 익명으로 질문을 받는 일은 없었다. 다른 나라에서 동시에 접속하는 사람들도 있기 때문에 온라인으로도 질문을 할 수 있지만, 그 경우에도 자신이 누군지를 밝혀야 했다. 권리는 그것을 감당할 수 있는 책임으로부터 나오기 때문이다.
한 시간짜리 세션은 그렇게 휙 하고 지나갔다. 내 삶에서 가장 인상적인 한 시간이었다. 그 자리에 있는 것이, 페이스북에서 일하는 것이 정말로 즐겁다는 생각을 했다. 앞으로의 시간을 기대할 수 있었다.
--
마침내 모든 온보딩이 끝났다. 회사에서 진행하는 거의 모든 교육에 대해서 굉장히 비판적인, '바빠죽겠는데 왠 시간낭비!'라고 생각하는 마음을 가지고 있었던 내게도 믿을 수 없을 만큼 의미있는 시간이었다.

김형석님

Continuous Learning_Startup & Investment

31 Oct, 14:55


페이스북에 입사한 뒤 얼마 안 있어 팰로알토에 있는 본사로 온보딩 교육을 떠났다. 팰로알토는 캘리포니아 주에 속해있는 작은 도시로 실리콘밸리를 상징하는 곳이다. 페이스북 본사는 바다를 막은 간척지 같은 곳에 있었는데, 지역 이름을 따서 MPK(menro park)라는 약칭으로 불렸다.
입사 첫 날을 MPK에서 보내는 것은 아니다. 자신이 채용된 국가의 오피스에서 근무를 시작하는 경우가 많고, 그 사람들을 모아 적당한 규모로 MPK에서 5일짜리 온보딩 교육을 진행한다. 대략 몇 십명 정도 규모였다. 숙소는 각자가 알아서 잡는 형태였기 때문에 저녁 시간은 꽤나 자유로웠다. 사람들이 자주 이용하는 호텔도 있었는데 나는 팰로알토를 좀더 잘 느끼고 싶어서 에어비앤비를 이용했다.
온보딩의 시작은 사원증을 신청하는 것으로부터 시작한다. MPK에 도착하면 입구의 보안 검색대에서 신원을 확인한 후에 사진을 찍고 임시출입증을 받는다. 사원증은 온보딩 기간 중에 받을 수 있다. 앞면에는 얼굴과 영어 이름, 그리고 뒷면에서 파란 바탕에 페이스북 로고가 있는 사원증이었다.
MPK는 꽤 큰 부지의 땅에 위치해 있었는데 3층 높이의 낮은 건물 수십 개가 빙 둘러져 있고, 그 안쪽에는 마치 대학 캠페스를 떠올리게 하는 것처럼 넓게 오픈된 공간이 있어서 걸어다니기에 좋았다. 군데군에 카페과 꽤 많은 숫자의 식당이 있었는데 모두 특색이 달랐다. 식당은 나라별 컨셉에 따라 분위기와 메뉴가 다채로웠고 취향에 따라 어디에서 먹을 지를 자유롭게 고를 수 있었다. 별도의 식사시간이 있기 보다는 아무 때나 몇 번이고 이용할 수 있었다.
음식은 꽤 맛이 있었고 공짜였다. 버튼을 누르면 기계가 즉석에서 오렌지를 반으로 갈라 즙을 짜 주었다. 과일과 샐러드도 다양하게 준비되어 있었고, 가볍게 빵이나 샌드위치를 집을 수도 있었다. 꽤 맛있는 젤라또 가게도 있어서 시간이 날 때마다 먹곤 했다. 샌프란시스코의 3대 커피 중 하나인 필즈 커피도 들어와 있었는데 이것만 비용을 지불해야 했다. 민트 잎을 넣은 시그니처 메뉴가 있었다.
온보딩 교육의 일정은 그리 타이트하지는 않았기 때문에 아침 일찍, 교육 중간중간, 그리고 교육이 끝났을 때 다양한 식당과 카페를 돌아다니면서 어디가 제일 좋은지, 어떤 메뉴를 꼭 먹어봐야 하는지 온보딩에 참여한 뉴비들은 서로 정보를 주고 받았다. 여러 번 먹어도 상관없었기 때문에 온보딩 기간 동안 모두들 조금씩 살이 쪘다. 곳곳에 맥주와 칵테일을 마실 수 있는 공간이 있어서 굳이 밖에 나가 비싼 돈을 내지 않아도 동기들과 즐거운 시간을 보낼 수 있었다.
공간이 넓어서 그런지, 출퇴근 시간이 따로 없어서 그런지 MPK를 걸어다니는 사람들은 모두 느긋하고 평온해 보였다. 야외에 테이블과 의자가 많았기 때문에 노트북을 들고 식당이나 카페에서 일하는 사람들도 많았다. 두리번 거리는 사람들은 대부분 뉴비였고, 그런 모습들을 보면서 자신이 처음 페이스북에 들어왔을 때를 떠올리는 것 같았다.
--
온보딩 교육은 굉장히 인상적이었다. 굉장히 다양한 세션들이 있었는데 '교육'이라기 보다는 'Culture'에 대한 이야기가 많았다. 무엇보다 흥미로웠던 것은 세션을 진행하는 사람들에 있었다. 온보딩 교육을 담당하는 강사들이 따로 있는 것이 아니라 방금 전까지 회의를 하던 사람들이 직접 나와서 이야기를 하는 듯한 느낌이었다. 각 업무의 실무자가 나오는 때도 있었지만 중간중간 꽤 많은 숫자의 C-level이 세션을 진행했다. 잠시 인사만 하고 가는 것이 아니라 한 시간짜리 세션을 Full로 진행하면서 Q&A도 받았다.
가장 인기가 있었던 것은 크리스 콕스(Chris Cox)였다. 페이스북의 제품을 담당하는 총책임자로서 마크 저커버그와 셰릴 샌드버그 다음으로 유명했고, 톰 그루즈를 닮은 듯한 외무에 자신감 넘치는 말투를 가진 셀럽 같은 느낌의 사람이었다. 이름은 기억나지 않지만 페이스북의 CFO, CTO도 각각 재무세션과 기술세션을 담당했다. 고작 몇 십명의 뉴비들을 위해서 회사의 C-level이 한 달에 두 번 정도 열리곤 했던 온보딩 교육에서 한 시간씩을 보내는 것이었다.
페이스북을 다니면서 반복해서 느꼈던 것은 페이스북이 구성원을 대하는 방식이었다. 회사의 방향이나 문화, 집중하고 있는 업무에 대해서 정말로 끊임없이 이야기를 했다. 때로는 과하다 싶고, 비효율적으로 보이는 때도 있을 만큼 최대한 얼굴을 맞대고 설명을 했다. 회사와 합의된 내용이 아닌 각자가 그냥 자신의 생각을 말할 뿐이었는데, 그 안에서 묘한 공통점들을 느낄 수 있었다.
페이스북 이전에도, 이후에도 한국의 많은 회사에서 다양한 종류의 교육을 받아봤지만 그러한 교육이 실제로 일하는데 도움이 되었다고 느낀 적은 별로 없었다. 굉장히 형식적으로 진행되는 부분이 많았고, 해당 업무에 대해서 직접 진행한 적이 없거나 외부 강사를 통해 진행하는 경우도 많았다. 제한된 시간에 최대한 많은 것들을 일방향적으로 전달하려 하거나, 밤새워 도미노를 쌓는 것처럼(이것은 은유의 표현이 아니라 실제 도미노를 쌓는 것을 의미한다) 정신단결을 강조하곤 했다.
페이스북의 온보딩 교육이 달랐던 것은 그 세션을 대하는 사람들의 태도에 있었다. 회사에 처음 입사했을 때, 그 백지와 같은 순간이 그 사람에게 그리고 페이스북에 얼마나 중요한 순간인지를 참여하는 모두가 분명하게 인지하고 있었다. 그렇기 때문에 고작 몇 십명의 뉴비들을 위해 그 바쁜 사람들이 시간을 내어 직접 세션을 진행한 것이다. 경험과 지식을 갖춘 사람들이 하는 세션은 바이브 자체가 달랐다.
--
온보딩 교육의 첫 번째 테마가 Culture였다면, 두 번째로 강조되는 것은 '보안'이었다. 대부분의 세션들이 굉장히 밝고 재미있게 진행되었는데 보안 세션 만큼은 완전히 달랐다.
Leak.
온보딩 세션 동안, 그리고 페이스북을 다니면서 가장 많이 들었던 단어 중의 하나다. '유출'을 의미하는 Leak은 '공유(open)'를 강조하는 페이스북 문화를 무너뜨릴 수 있는 가장 큰 위협으로 간주되었다. 다른 회사를 다니면서 회사의 가장 중요한 정보에 접해보지 못한 사람들은 별다른 의식없이 자신이 알고 있는 내용을 친구나 지인에게 이야기할 위험이 있었다. 공공장소에서 동료와 이야기하고 있는데 우연히 옆 테이블에 기자가 있는 것처럼 예기치 못한 상황도 있을 수 있다. 이러한 것들은 정상참작이 될까.
그렇지 않다는 것이 온보딩 교육 내내 강조되었다. One-strike out. 별다른 세부적인 가이드도 없다. 'Leak'이 의심되는 상황이 발생하면 언제든지 조사가 나올 수 있고 회사에서 지급된 업무용 스마트폰과 노트북이 압수될 수 있다.
I will find you and I will fire you.
영화 테이큰에서 리암 니슨이 말한 명대사가 오버랩되었다. '뭐, 이렇게까지 하나' 하는 생각이 들 만큼 온보딩 교육 분위기가 정말로 살벌했다. 그러나 페이스북을 다니면서 온보딩 때 왜 Leak을 이렇게까지 강조하는지를 잘 알게 되었다. 그만큼 페이스북은 거의 모든 종류의 컨피덴셜 정보를 구성원들에게 공유했던 것이다.
--
온보딩 세션 중간의 시간을 활용해서 사람들은 다양한 활동을 했다. 같이 세션에 참여한 다른 동기들과 이야기를 나누기도 하고, MPK 캠퍼스를 걸어다니기도 하고, 군데군데 놓여 있는 카우치에 누워 잠을 자기도 했고, MPK에 있는 수 많은 건물들을 자유롭게 돌아다니기도 했다. 그 중에서 가장 인기있는 활동 중의 하나는 '저커버그 만나고 오기'였다.
회사의 CEO를 만나서 이야기를 나눈다는 것은 내게는 굉장히 생소한 이야기였다. 2014년이고 한국에서는 아직 그렇게까지 영향력은 없는 때였지만, 이미 미국에서는 그리고 꽤 많은 나라에서 페이스북은 굉장히 힙한 서비스였고, 시가총액도 높고, 직원수도 이미 1만명에 달하는 큰 조직이었다. LG전자에서는 상무만 달아도 전용 엘리베이터를 타고 다녔고, 네이버에서도 평사원이 창업주를 만나러 간다는 것은 생각하기 어려웠다. LG전자와 다른 점이 있다면 같은 엘리베이터를 탄다는 정도였지만 말을 걸기는 어려웠다. 그 만큼 '그들'은 굉장히 먼 존재였다.

Continuous Learning_Startup & Investment

31 Oct, 04:57


지난 몇 주 간에 걸쳐 어쨌든 화공과 학생들에게 random walk 부터 Langevin 방정식까지 연결되는 과정을 잘 전달하고 가르치는 것에 성공한 것 (으로 보인다) 같다. 화공과 학부 전달현상 과목에서 뭐 대단한거 가르친답시고, 그냥 확산 방정식만 써주면 되지 뭐 그걸 다 일일이 유도하고 거기에 더해 랑제방 방정식 가르치고 유도하고 그러느냐고 타박하는 선생님들이 계시지만, 그래도 이런 강의가 한 개 정도는 진지한 교육하는 학교에는 남아 있어도 되지 않을까 생각한다. 확산 방정식을 완전 random walk 부터 하나씩 유도하고 랑제방 방정식까지 가고, 다음 단계로 Fokker-Planck equation 도 가르치고, 하는 김에 sampling algorithm 도 가르치고 그러면, 비단 확산방정식 뿐만 아니라, 그와 연계된 확률론적 과정으로 이어지는 스토리도 잘 연결되고 또 다양한 분야로 응용을 할 수 있는 인사이트도 학생들에게 줄 수 있다(고 믿는다).

아마 학부생들 입장에서 가장 충격적인 사실이라면, 애써서 governing equation 배워 푸는 방법을 배웠더니, 그건 사실 deterministic case에만 적용되는 것이기에, stochastic version을 다시 배우고 두 케이스가 어떻게 연결되는지 확인하기 위해 수학적으로 지난한 과정을 거치는 한 단계를 더 익혀야 한다는 사실일지도 모르겠다. 그렇지만 그 고생을 하면서 더 풍부한 정보를 얻게 되고, 현실에 좀더 가까운 모델을 접할 수 있게 되는 것도 대학에서 배우는 공부의 즐거움 중 하나가 아닐까 생각한다.

사실 학부 수준의 전달현상 교육에서 확률론적 과정까지 배우고, 그것을 위해 난수 생성 원리, 샘플링 방법 등을 같이 배우는 것은 다소 오버처럼 느껴질 수 있다. 그렇지만 해본 사람은 안다. 확률론적 과정이 다 governing equation으로 잘 기술될 수 있는 것도 아니고, 그 과정을 모사하기 위해서는 MC simulation이 필요하고, KMC를 하려면 uniform random number로부터 sample을 얻어내는 과정을 이해해야 한다는 것을 말이다. 난수 생성이 pseudo-random number generation이라면 결국 repeatability를 벗어날 수 없고, 따라서 큰 시스템에서 보이는 고유 현상을 다 설명하기 어렵게 된다. 또한 특정 확률분포함수를 갖는 변수들에 대해서, 그 누적확률분포함수(CDF)의 역함수를 explicit 하게 구할 수 없는 경우에는 어쩔 수 없이 rejection sampling이나 Markov chain MC sampling 같은 샘플링 방법을 써야 한다. 이러한 내용을 충분히 이해하지 못 한채 chatGPT에 이를 물어보면 그냥 rand(n,1) 쓰세요 라는 답변만 나오고, 학생들은 이를 자신의 코드에 그냥 ctrl+c/v 할 뿐인데, 그렇게 해서 만든 코드가 돌아갈지는 모르겠고, 돌아간다고 하더라도 그 결과물은 physically relevant 하지 않기 때문에 사실 문제가 많아진다.

아무리 AI가 교육부터 연구까지 득세하는 세상이 되었다고 해도, 여전히 대학에서는 기초를 제대로 시간 들여 가르치고, 그 기초가 왜 그 다음 단계로 가는 중요한 계단이 되는지를 정성들여 가르치는 것이 중요하다. 그것마저도 AI에 외주를 주면 가르치는 사람으로서 교수가 정말 해야 할 것이 얼마나 남아있게 될지 잘 모르겠다.

권석준님

Continuous Learning_Startup & Investment

30 Oct, 10:40


세계화는 끝났다, 도전이 도사리고 있다

TSMC가 지금 같은 자리에 오른 건 미국이 첨단 공정 장비를 보호한 덕분

중국이 ASML의 EUV(극자외선) 등 첨단 노광 장비 수입 제한으로 첨단 공정에서 진전을 이루지 못했기 때문에 TSMC가 경쟁력을 유지하고 있는 것

중국이 첨단 공정 기술을 돌파하면, 가장 먼저 사라질 기업은 ASML이며, TSMC 또한 경쟁 심화로 어려움을 겪을 것

삼성의 중국 시장 점유율은 2005년 이전 30%를 넘었으나, 이후 급격히 하락해 0.3%에 불과하다”며 “아프리카와 동남아 시장에서도 중국 브랜드에 잠식당했고, 주요한 생산 기지인 베트남에서도 중국 브랜드에 밀리고 있다

가장 심각한 건 삼성의 최대 경쟁력이었던 D램 시장에서도 HBM(고대역폭메모리) 경쟁에서 SK하이닉스에 완패한 점

이 모든 것이 말해주는 건 중국이 참여하는 세계화 속에서 산업 경쟁이 치열해지고 있다는 것”이라며 “결국 최종 승자는 기술 장벽을 높여 중국이 따라올 수 없게 만든 기업뿐

https://biz.chosun.com/it-science/ict/2024/10/29/DSIZF746QBEO5ELU3PZVLNA5FM/

Continuous Learning_Startup & Investment

29 Oct, 09:50


투자은행(IB)업계에 따르면 비바리퍼블리카는 이번주 국내 IPO 주관사에 국내 상장 작업을 중단하겠다는 의사를 통보했다. 올해 2월 국내 상장을 위해 미래에셋증권과 한국투자증권을 대표주관사, 삼성증권을 공동주관사로 선정한 지 8개월 만이다.

비바리퍼블리카는 이르면 연내 미국 상장 주관사를 선정하고 미국 증시 입성을 준비할 계획이다. 상장 시기는 내년 하반기 또는 2026년 초로 예상된다. 시장에서 토스 기업가치는 10조~20조원 수준으로 거론된다.

https://n.news.naver.com/article/015/0005050408?sid=101

Continuous Learning_Startup & Investment

28 Oct, 22:11


“펩시는 10년에 한 번씩 자사 제품을 교체하죠.
새 제품이래봤자 신규 사이즈 페트병이겠지만.
그러니 만약 당신이 개발팀 사람이라면 회사의 방향성에 영향을 끼칠 수 없어요.
그럼 펩시의 매출에 도움이 되는 건 누굴까요?
세일즈 팀과 마케팅 팀 사람들이죠.
그러니 그 사람들이 승진하게 되고, 그 사람들이 회사를 운영하게 됩니다.
독점적 지위를 가진 기술 기업들에도 똑같은 일이 벌어진다는 겁니다.
IBM이나 제록스처럼요.
어차피 시장에서 독점적인 지위가 있는데, 회사가 돈을 더 벌 것도 아닐 테니까요.
그러니 기업의 매출을 늘리는 사람은 세일즈 팀과 마케팅 팀이 됩니다.
결국 그들이 회사를 운영하게 되죠.
제품의 감수성 같은 것은 사라지고
그런 독점적인 지위를 만들어낸 천재적인 개발자들은 철저히 배제됩니다.
좋은 제품과 나쁜 제품의 차이를 전혀 모르는 회사 운영진에 의해서요.
좋은 아이디어를 좋은 제품으로 만드는데 필요한 장인 정신이라는 개념을 알지 못합니다.
그리고 그들은 보통 가슴속에 고객을 위하려는 마음도 없습니다.
그게 제록스에 있었던 일이고, 제록스 사람들은 운영진을 토너 대가리라 불렀어요.
그리고 이 토너 대가리들은 제록스에서 뭔 일이 벌어졌는지 감도 못 잡더군요.
컴퓨터의 가능성에 대해 아무것도 모르는 사람들.
그렇게 컴퓨터 산업에서 거대한 승리를 했음에도 발목이 잡힌 거죠.
제록스는 컴퓨터 산업 전체를 지배할 수도 있었어요.”

Continuous Learning_Startup & Investment

27 Oct, 12:21


짐 콜린스, 빌 레지어의 ‘좋은 리더를 넘어 위대한 리더‘(1992년에 쓴 Beyond Entrepreneurship을 재간한)를 읽기 시작했는데 예상치 못한 문구를 처음부터 발견했다.
저자가 2007년 스티브 잡스와 알게되어 1997년 잡스가 애플에 복귀했을때 기울어가던 회사의 생존을 위해 첫번째로 구축했던 일을 물었다. 저자는 당연히 제품 비전에 대한 대가인 잡스가 ’미친듯이 위대한 제품‘ 아이디어를 설명할꺼라고 생각했다.
그러나 잡스는 사람을 들었다. 애플의 초창기에 세상을 바꾸어놓겠다고 했던 바로 그 비전을 여전히 뜨거운 가슴에 품고 있는 사람들. 자기는 그 열정을 가진 사람들을 찾아내는 것에서부터 애플 재건 작업을 시작했다고 말했다.

강준열님

Continuous Learning_Startup & Investment

27 Oct, 07:33


https://youtu.be/cdiD-9MMpb0?t=9383

10,000 시간의 의도적인 연습: "초보자들은 주로 '무엇을 해야 하는지'에 집중하는 경향이 있지만, 저는 '얼마나 많이 하는지'가 더 중요하다고 생각해요. 10,000시간의 노력을 쏟아야 해요. 어떤 일을 선택하는지는 그리 중요하지 않아요. 하다 보면 개선되고, 시행착오도 겪겠죠. 하지만 10,000시간 동안 의도적으로 노력한다면 결국 전문가가 될 겁니다."

매일의 습관 형성: "어떻게 하면 10,000시간에 도달할 수 있을지, 그 가능성을 최대화하는 메커니즘에 대해 생각해 보세요. 우리 같은 인간에게는 매일 실제로 일을 하는 습관을 형성하는 것이 필요합니다."

타인과의 비교가 아닌 자기 자신과의 비교: "사람들은 자주 다른 사람들과 비교하는데, 이건 매우 해로워요. 오직 과거의 자신과 비교하세요. 예를 들어, 1년 전의 나와 비교했을 때 지금의 나는 더 나아졌는가? 이것만이 올바른 사고 방식입니다."

'흉터 조직'으로서의 실수 수용: "틀린 방법으로 시간을 낭비하게 될 거예요. 결국은 그것이 옳지 않다는 걸 깨닫게 되겠죠. 시행착오를 통해 '흉터 조직'이 쌓이고, 그 다음에는 더 강해질 겁니다. 모든 실수가 헛된 일이 아니었던 겁니다."

학습 수단으로서의 가르침: "저는 가르치는 걸 사랑하진 않지만, 사람들이 행복해하는 걸 좋아해요. 그리고 가르칠 때 사람들이 행복해하죠. 가르침은 이해를 강화하는 방법이에요. 무언가를 누군가에게 설명하려면 지식의 빈틈을 발견하게 되거든요. 그래서 순전히 이타적인 활동은 아니에요—이건 배움의 한 방법입니다."

기술 선택의 단순화: "사람들은 주로 어떤 IDE를 사용해야 할지 같은 문제로 걱정하죠. 결국은 틀린 방식으로 시간을 낭비하게 될 겁니다. 하지만 시간이 지나면 알아내게 될 거예요."

AI의 추론 능력에 대해: "저에게 생각이나 추론이란 단순한 정보 처리와 일반화입니다. 현재의 신경망은 이미 이걸 하고 있다고 생각해요. 새로운 상황에서도 정보를 처리하여 올바른 답을 제시하고 있죠. 이는 단순한 룩업 테이블이 아니라 알고리즘을 학습한 결과입니다."

Continuous Learning_Startup & Investment

27 Oct, 05:40


늘 어딜가나 어떤 창업자를 선호 하는지 묻는데... tossfeed 에 잘 정리해놓은게 있어서 공유.
-- 하고자 하는 업과 관련해 누구보다 많이 알고 준비를 철저히 했다. 그리고 모르는 것은 모른다고 한다.
-- 회사 내외 분들로부터 존경을 받고 사람들이 같이 일하고 싶어 한다. 이것은 좋아하는 것과 다르다. 좋아한다고 꼭 같이 일하고 싶어 하지는 않는다.
-- 끊임없이 자기 발전을 한다. 아무리 좋은 학교를 나오고 스마트한 사람이라도 계속 발전하지 않는 사람에게는 실망한다.
-- 실패를 했다 해도 그 경험을 통해 무엇을 얻었는지 배우고, 또 실패 하는 것을 두려워하지 않는다. 그래서 어려운 결정을 피하지 않는다.
-- 거대한 꿈이 있다. 그러나 꿈과 현실을 혼동하지 않는다.

한킴

Continuous Learning_Startup & Investment

26 Oct, 08:27


당신의 인생은 당신의 경험의 총합이다—
김수미씨가 돌아가셨다. 75세밖에 안되셨다. 안타까운 마음이 가득했다.
동창 카톡방은 두 가지 소식이 대부분이다. "자녀결혼" "부모님 상"
생각없이 살다가도 죽음을 접하면 삶에 대해 다시금 생각하게 된다.
얼마전에 밀리의서재에서 "역전하는 법"이란 흥미로운 책을 한 권 읽었다. 저자는 일중독과 돈중독에 빠졌던 잘 나가는 헤지펀드 매니저였는데 일에치여 사망하는 주위 백만장자 동료들을 보고 삶에 대한 관점을 바꾼 사람이었다.
그는 이렇게 말한다.
"대부분의 사람들은 부자가 되려 애쓰는데 그것보다 부자로 사는 것이 더 중요하다. 당신의 인생은 당신의 경험의 총합이다.
왜 돈을 모으는가? 경험을 위해서이다. 죽음을 앞두면 남는 것은 경험뿐이다. 경험은 만료기한이 있다. 아이와 놀아주는 것은 자녀가 아이일때만 가능하다. 스키나 번지점프도 어떤 나이 이상이면 시도하기 어렵다. 당신이 미루면 평생 단 한번도 경험하지 못한채 죽는다.
돈의 효용성은 나이와 함께 감소한다. 나이들면 건강도 관심사도 감소한다. 건강할때 경험에 돈을 써라. 건강과 시간이 돈보다 중요하다."
그는 다음과 같은 몇가지 방안을 말했다.
1.인생에서 긍정적 경험을 최대한 늘려라
2.일찍부터 (물건보다) 경험에 투자하라
3.다 쓰고 죽기를 목표로 하라
4. 자동조정모드에 인생을 맡기지 마라
5. 경험마다 적절한때가있다
6. 재산증식을 멈출때를 파악하라
7. 죽고나서 기부하거나 상속할 생각하지말고 생전에 관대하게 베풀고 돈을써라
8. 지나치게 사치하지말고 그러나 지나치게 검소하지도 마라
9. 자녀에게도 경험의 추억을 주라. 자녀가 크면 그 경험만 기억한다.
10. 젊을수록 과감한 경험에 도전하고 모험하라.
물론, 생계자체가 어려운 분들에게 이러한 이야기는 배부른 이들의 낭만이라 할수 있을수 있다. 이 책의 저자는 이미 엄청난 부를 이루었기에 이런 말을 쉽게 할수 있다고 할수도 있다. 그럼에도 불구하고 특히 평생 경주마처럼 달리기만 하는 사람들에게 충분한 통찰이 있다.
다음과 같은 질문을 해보자.
당신이 누리고 싶은 인생 경험은 무엇인가?
누구와 함께 이 경험을 함께하고싶은가?"
그리고 지금 당장 하자!

신수정님

Continuous Learning_Startup & Investment

26 Oct, 04:23


도전하는 인생을 사는 분들의 특징

창업이던, 커리어던, 도전을 멈추지 말아야 한다고 생각한다. 도전을 멈추는 순간 평범의 길로 접어든다고 생각한다.

항상 도전하며 사는 사람들의 특징은 아래와 같다고 생각한다.

1. 객관식이 아닌, 주관식으로 인생을 설계한다. 내가 선택할 수 있는 더 나은 커리어의 보기를 찾기 보다는, 1) 내가 원하는 성장을 정의하고 2) 그 정의에 부합하는 여정을 만들어 나가기 위한 과정을 주변 사람들과 끊임없이 대화하며 설계해 나가야 한다. 커리어/인생을 주관식으로 설계해야, 그 과정에서 '도전'을 할 수 있다.

2. 주변을 활용해야 한다. 도전은 혼자 고민하고 혼자 실행해서 할 수 있는 것이 아니다. 혼자 고민하면 염려가 쌓이게 되는데, 염려는 도전을 방해하는 요소로 작용한다. 좋은 친구/동료/선배/멘토가 있다면, 주기적으로 내 고민을 터놓고 이야기 할 필요가 있다. 그들이 답을 준다기 보다는, 그들과 대화하는 과정에서 나 스스로 답을 발견할 가능성이 크다. 참고로 좋은 친구/동료/선배/멘토의 정의는... '적당히 살아도 되니까 좀 즐겨~' 라고 이야기 해주는 사람이 아닌, 내가 더 깊이 들어갈 수 있도록 질문을 해주고, 경험담을 솔직히 share 해주고, 응원해주고 격려해주는 사람이다.

3. 주변에 같은 강도로 노력하는 동료들이 있다. 설령 서로 가는 길은 다를지언정, 꿈을 이루기 위해 지치지 않고, 끝까지 꾸준히 열심히 노력하는 사람들이 주위에 있다면, 때로는 자극을 받고 때로는 의지하며 결국 포기하지 않고 도전을 이어나갈 수 있다. 도전은 포기하지 않음에서 비롯되는데, 포기하지 않기 위해서는 함께할 수 있는 동료가 필요하다.

4. '안전한 길' 보다는 '맞는 길'을 가려고 한다. 그 과정에서 익숙함 보다는 새로움/낯섬/불편함을 선택한다. 상황을 & 주변을 바꾸려 하기 보다는, 나를 바꾸려고 한다. 그 과정에서 Risk를 줄여나가는 옵션을 선택하기 보다는, Risk 가 따라오되 내가 꿈꾸는 미래에 가까이 갈 수 있는 길을 선택한다.

5. 사람을 깊게 사귄다. 많이 만나는 것 보다는 제대로 만나는 것에 초점을 둔다. 그리고, 내 comfort zone 안에 있는 사람들만 만나기 보다는, 때로는 comfort zone 을 벗어난 사람들과의 교류를 피하지 않고, 오히려 즐기고, 그들의과 깊이있는 관계를 통해 comfort zone 을 넓혀나간다.

Ringle 유저 분들의 공통점 중 하나도, 1) 도전하는 인생을 살아가고 있거나, 2) 도전하는 인생을 살기 위해 노력하는 분들이라는 사실이다.

경기가 좋지 않은 시기일수록 (역풍이 부는 시기일수록), 불안정성이 높아지는 시기일수록, 돌파구를 찾는 것이 필요하다. 돌파구는 안전한 선택을 하는 데에서 찾아질 수 있다기 보다는, 과감을 선택을 하는 과정에서 찾을 수 있는 것이다.

많은 분들이 2024년 말 & 2025년에는 더 나은 삶, 더 나은 세상을 꿈꾸며 도전하는 인생을 살 수 있으면 좋겠다!

화이팅!

승훈님

Continuous Learning_Startup & Investment

26 Oct, 04:23


에너지와 김의 만남.
신선하다 또는 낯설다.

———
‘독도 김’으로 알려진 국내 빅3 김 제조사 중 하나인 성경식품이 종합에너지기업인 삼천리를 새 주인으로 맞는다. 국내 사모펀드(PEF) 운용사 어펄마캐피탈은 성경식품을 인수한 지 7년 만에 매출을 두 배 가량으로 늘리며 수출 기업으로 기업가치를 높여 성공적으로 엑시트 할 전망이다.

https://n.news.naver.com/mnews/article/011/0004407144

Continuous Learning_Startup & Investment

24 Oct, 12:47


How to build a rocket from scratch from abl team.

https://blog.ablspacesystems.com/p/building-e2

Continuous Learning_Startup & Investment

22 Oct, 01:50


많은 연구자들이 자신들의 이름을 건 알고리즘으로 세상을 바꾸고자 하지만, 알고리즘보다 데이터와 컴퓨팅이 훨씬 중요했다는 것이 역사로 증명

중요한 것은 모델이 가치를 창출하느냐는 것이고 이를 달성하기 위해서는 연구자들도 새로운 인센티브 구조를 연구할 필요가 있음

- 직접적인 교육보다 인센티브 구조를 통한 학습이 더 효과적
- 모델 규모가 커짐에 따라 인센티브 기반 학습의 효과가 증대됨
- 모델 규모에 따라 다른 능력이 출현함
현재 작동하지 않는 아이디어도 미래에는 작동할 수 있다는 "아직"의 관점 필요

- 물론 원숭이에게 바나나를 아무리 가져다줘도 수학 논문을 쓸 수는 없듯이 인센티브 기반 학습이 가능하려면 최소한의 지적 능력을 갖춰야 함
- GPT4 모델부터 이 능력을 갖춘 것으로 봄
- "물고기 맛을 보여준 뒤, 계속 배고프게 하자." 그러면 인내심과 물고기가 좋아하는 미끼 등 여러가지 필수 능력을 인공지능이 스스로 학습할 것

AI 연구에 대한 새로운 관점

- 기본 가정(가장 유능한 모델)이 빠르게 변화함
- 바뀔때마다 기존 방식을 버리고 (unlearning) 새로운 방식을 익혀야 함
- 실제로 기존 방식에 대한 지식이 전무한 학부생이 쓴 논문으로 전체 업계의 연구방향이 바뀌기도 함
- 기존 직관을 버리고 새로운 패러다임에 적응하는 능력이 중요
- 다음 토큰 예측 (Next Token Prediction) 방식이 그동안 아주 잘 동작해왔지만, 이것도 정답이 아닐 수 있음
더 나은 인센티브 구조에 대해 주목해야 함

인간 지능과 기계 지능은 다릅니다. 인간의 기준으로 기계를 가르치는 것보다 모델이 스스로 데이터를 보고 패턴을 학습하게 하는 것이 훨씬 낫습니다.

그럼에도 우리는 계속 인공지능에게 우리가 생각하는 방식을 가르치려고 시도합니다. 정형원 박사는 그 이유에 대해서 단기적으로 좋은 결과가 나오기 때문이라고 설명합니다. 그래서 그동안 연구자들이 우선 여기에 집중을 하는 경향이 있었는데, 장기적으로 봤을 때는 이 방식은 어느 지점 이후로는 성능이 정체된다는 단점이 있었습니다. 사람이 하나하나 가르치게 되면, 사람의 방식이 일종의 한계로 작용할 수 있다는 것입니다.

모델에게 알아서 학습하도록 하면 처음엔 부족하더라도 충분한 컴퓨팅과 데이터가 제공되면 스스로 사람이 가르칠 수 있는 패턴보다 훨씬 많은 개수의 패턴을 스스로 학습할 수 있다는 것입니다. GPT4의 경우에는 그 패턴의 개수가 수조개가 넘는다고 하니, 앞으로도 컴퓨팅과 데이터는 더 많이 제공될 거라는 것을 전제로 했을 때 더 이상 사람이 가르치려는 방식을 붙잡고있을 필요가 없다는 것입니다.

학습량을 늘리면 꺼내쓸 수 있는 공식이 많아지니 더 많은 상황에 대처가 가능해지는 거고, 꺼내쓸 수 있는 공식을 못찾거나 잘못 찾으면 환각을 일으키는 것

Continuous Learning_Startup & Investment

21 Oct, 14:02


https://maily.so/seanlee/posts/e9a89586

Continuous Learning_Startup & Investment

20 Oct, 23:37


Supabase’s financials as part of Avra’s push for the company to create a “mini S-1” (more in a moment). “The mini S-1 project makes you think a lot and forces you to ask a lot of questions. Without the office hours, I would have been floundering a bit, especially around knowing how to write up our financials. The Avra team literally built spreadsheets for us, which I now use for our investors.”

Momence CEO Vojta Drmota also found the added attention of office hours valuable. “In between sessions we would meet with Anu and her team. It supplemented the sessions very well because it was more pointed toward where Momence is now and what we need to focus on.”

Though most growth VCs get to know potential investments over a long period of time (at least six months and usually a year) to create a longitudinal view of their progress, Avra gets to witness it up close and unvarnished.

You have to articulate what the best case scenario for your TAM is, what your market share has to look like, and what ACVs have to look like,” Drmota said. “It forces you to think not just about your mission but how it can be materialized.”


Founders rely on help from Avra and feedback from their batchmates to craft their S-1, which they eventually present in front of prominent public market investors. “It’s definitely an interesting process,” Cris Valenzuela said. “You learn a lot just by doing it, but you also get a lot because you speak with other people about it and get feedback. It helps you understand the future things you should be thinking about. I’d never done it before.”

Continuous Learning_Startup & Investment

20 Oct, 23:37


Step 1: Data-driven sourcing

“We get to reimagine it in the age of AI,”

“For example, revenue might be a lagging indicator because it’s not necessarily the first metric that helps you identify a breakout business. The same is true of job openings – only after a company achieves a certain round of funding are they able to open up new positions.”

Lucas Fox highlighted the importance of tracking Github repositories and stars, Twitter trends, and engagement via platforms like Discord or other open-source communities. Avra’s system tracks the social activity of certain influential people – noting the new companies or entrepreneurs they follow. It also incorporates app traffic, web traffic, Hacker News upvotes, backlinks growth, and consumer credit card data. The system integrates qualitative signals, too, assessing the perceived quality of a founding team and the caliber of the company’s known cap table. In total, it tracks more than 50 custom sources to develop a sense of the current market.

Before it gets to the invitation stage, Avra conducts further filtering. It cannot reasonably meet with hundreds of companies; instead, it watches them over time and looks for inflection points followed by consistent growth. “We do week-over-week monitoring. That’s how we know which ones are taking off,” Hariharan said. “The key is to measure it dynamically. Pretty easily, you get to a top 50 because not everyone is growing week-over-week.”

Step 2: One-on-one evaluations

Because Avra offers a specific, differentiated product, it is able to sidestep this tripwire. When a member of the investment team reaches out to a startup CEO, it is not asking to invest; it is offering something of value. Especially when this pitch comes via a founder who enjoyed the program, it’s a powerful sell.

Revenue threshold. Avra’s program is explicitly designed for growth-stage companies. If a company hasn’t achieved meaningful revenue, it may be better for them to wait for a later batch. “If you haven’t gotten to $2 million in annual revenue, it doesn’t make sense to do the program because it is not a good use of their time,” Hariharan said.

Scaling speed. As well as surpassing a certain threshold, Avra also looks to ensure a startup is growing rapidly. Much of Avra’s program focuses on building large, performant teams at hyper-speed, something a more modestly growing company may not need. “If you’re not scaling really fast in terms of revenue growth, you shouldnt be scaling your team,” Hariharan added.

A self-aware CEO. “I’ve had the privilege of working with a lot of really good founders, and they’re very self-aware,” Hariharan explained. “It’s almost a signal we’re testing for because we don’t want founders who feel like they know everything. It won’t work for us, and over the long term, we have learned it does not work well for the company.” Avra looks for CEOs that understand their strengths and weaknesses.


Is it difficult to gauge self-awareness? Avra seems to find it straightforward, asking a series of questions that force introspection. A few examples:

1. What’s energizing about your job? What’s draining?

2. What are three things you’re good at? What are three things you suck at?

3. What are the strengths of your leadership team?

4. How well do you think you’ve hired?

Step 4: Classes

“A lot of the value comes from founders sharing their problems, not just from the instructors,” Nic Dardenne remarked. “You need it not to be a one-to-many lecture. People have to feel comfortable sharing and being more vulnerable.”

Executive hiring and management (taught by two CEOs)

Mission, strategy, and metrics (taught by two CEOs)

Leading leaders (taught by public market CEO)

Operating cadence (taught by a CEO)

Scaling engineering (taught by two CTOs)

Scaling people management (taught by a CEO and former VP of People)

Financial Planning and fundraising (taught by a CFO)


Step 5: Office hours

Continuous Learning_Startup & Investment

20 Oct, 23:07


Hariharan이 YC 재직 중에 작성한 글들 보면서 많이 배웠는데(특히 핀둬둬랑 Faire 글이 너무 좋았음), 비즈니스 모델을 탁월하게 파악해내는 능력을 살려서 새로운 엑셀러레이터겸 투자 하우스를 만들어버렸네. 자기만의 YC를 만들어낸 것인데, 범상치 않아보인다. 열심히 관찰해야겠어.

https://thegeneralist.substack.com/p/avra

Continuous Learning_Startup & Investment

20 Oct, 12:12


-반도체 엔지니어가 초등학생 수준으로 내부 보고서를 쓴다고?

“기술용어를 최대한 쓰지 않아야 한다. 그게 도저히 안 돼서 기술용어를 써야 하면, 그걸 쉽게 풀어서 밑에다 써준다.”

https://n.news.naver.com/article/020/0003593188?sid=101 #경영

Continuous Learning_Startup & Investment

20 Oct, 12:12


현장의 치열한 토론 문화

초반, 2010년 즈음엔 있었다. 예컨대 문제점이 있을 땐 그걸 놓고 같이 가설을 세워서 ‘이런 테스트 결과들이 그 가설과 어긋나지 않냐’면서 다른 가설로 얘기하고, 이렇게 서로서로 의견을 나눴다. 또 새로운 걸 해야 할 땐 이 방식이 좋을지 저 방식이 좋을지, 장단점을 토론했다.”

그런 기술적 토론은 당연히 지금도 해야 하지 않나?

“잘 안된다. 효율성, 즉 변화를 주지 않고 더 쉽게 할 수 있는 것만 하려고 한다. 예전엔 실무자가 의견을 내면 그래도 검토해 보고 위로 올라가는 게 있었는데, 지금은 답이 정해져 있다. 실패를 절대 할 수 없기 때문이다.

그래서 기술적으로 어려운 새로운 건 아예 안 하거나, 아니면 반대로 실패하지 않기 위해서 선택과 집중 없이 세상이 얘기하는 기술 트렌드는 일단 다 하기도 한다. 괜히 어느 걸 빼놨는데, 경쟁사가 그걸로 뜨면 안 되기 때문이다. ”

그렇게 된 계기가 있나?

“권오현 전 DS부문장(2011~2017년)은 선택과 집중을 하는 편이었다. 건강에 신경 써야 한다면서 ‘스마트 워크(Smart Work)’를 강조했고. 그런데 후임 김기남 전 부문장(2017~2022년)은 마이크로 매니지먼트 스타일이었다. 이재용 회장이 참석하는 ‘토요 주간회의’가 생기더니 일주일 내내 보고용 회의를 하는 문화가 생겼다. 요즘 얘기되는 HBM(고대역폭메모리) 철수 결정도 그때 이뤄졌다.”

원래 잘하던 걸 계속 더 잘하려고만 하다 보니, 다른 걸 놓친 듯하다.

“실패를 하더라도 미래를 준비했어야 했다.”

문제는 다들 어느 정도 아는 것 같다. 해법은 뭘까.

“바꾸기 쉽지 않다. 경계현 전 사장이 시스템을 바꾸려고 했지만, 그 아래 임원과 부서장은 지난 10년 동안 보신주의 문화에서 발굴된 사람들이었다. 그들은 ‘뭘 알지도 못하면서 바꾸려고 하냐. 힘들다’고 하고, 아래 직원들은 ‘바꾸겠다고 얘기했는데 실망했다’고 하고. 층층이 나뉘어 딴소리했다.

정말 바뀌려면 중간관리자를 대거 바꿔야 한다. 지금은 아예 결정을 안 하고 보고만 올린 뒤 저 꼭대기만 쳐다보고 있다. 원래 팀장이 ‘내가 책임질 테니 이거 해보자’ 해야 하는데, 팀장 본인이 ‘난 아무것도 아니고 아무것도 몰라요’라고 한다. 그럼 팀원들이 어떻게 힘이 나겠나.

지금 경영진이 보기엔 ‘난 잘하는데 왜 밑에 애들은 치열한 토론을 안 하지?’라고 할 거다. 알고 보면 그동안 자기들이 보고 받고 리젝트시키길 반복하면서 나타난 결과다. 직원들은 ‘토론해봤자 어차피 안 들어준다’고 하는 것.”

Continuous Learning_Startup & Investment

18 Oct, 06:34


• 팔란티어의 현재 상황: 최근 S&P 500에 가입하고 주가가 급등하며, 기업 가치가 1000억 달러에 근접하고 있음. 과거에는 스파이 기술이나 NSA 감시로 인식되었으나, 현재는 긍정적인 평가를 받고 있음.
1. 내가 팔란티어에 합류한 이유
• 의료, 항공우주, 제조, 사이버보안 등 어려운 산업의 실제 문제 해결에 관심이 있었음
• 이 분야에서 실리콘밸리 업무 문화를 가진 회사는 팔란티어가 유일했음
• 창업을 목표로 했기에 한 산업을 깊이 파고들고 미국 영주권을 얻을 수 있는 팔란티어가 좋은 선택이었음
• 초기 직원들의 높은 역량과 열정, 경쟁력이 매력적이었음
• 철학을 좋아하고 이상한 취향을 가진 진지하고 경쟁적인 사람들이 많았는데, 이는 페이팔 마피아의 유산이었음
• CEO 알렉스 카프를 포함한 경영진과의 면접에서 철학적 담화를 나누는 등 지적 웅대함과 경쟁력의 조합이 마음에 들었음
2. 현장 배치 엔지니어(Forward deployed, FDE)
• 팔란티어에는 고객사와 일하는 FDE와 제품 개발(PD)에 집중하는 엔지니어가 있었음
• FDE는 일주일에 3-4일을 고객사에 상주하며 많은 출장을 다녀야 했는데, 이는 실리콘밸리 회사로는 매우 이례적임
• FDE는 제조, 의료, 정보, 항공우주 등 어려운 산업의 비즈니스 프로세스에 대해 깊이 이해하고 이를 바탕으로 문제 해결 소프트웨어를 설계함
• PD 엔지니어는 FDE가 구축한 것을 제품화하고 FDE의 업무를 개선하고 가속화하는 소프트웨어를 만듦
• 파운드리 제품의 초기 모습은 FDE가 고객사에서 수작업으로 처리하던 것을 PD 엔지니어가 자동화 도구를 만들면서 갖춰짐
• 당시에는 고객에게 이 도구에 대한 접근 권한을 주는 것이 과감한 발걸음이었지만 지금은 회사 매출의 50% 이상을 차지함
• 팔란티어는 서비스 회사에서 제품 회사로의 성공적인 피봇을 이뤄냈고, 2023년 80%의 소프트웨어 수준 매출 총이익률을 기록함
• 고객사에 상주하며 그들이 일하는 방식에 대한 암묵지를 습득하는 것이 핵심이었음
• 무작위로 다음날 아침 비행기를 예약하고 출장 가는 것이 일상이었지만, 10년에 걸친 집중적 학습의 결과 성과를 거둠
• 에어버스와의 첫 FDE 경험으로 1년간 툴루즈에 머물며 A350 제조 확대 소프트웨어를 함께 구축함
• 작업 지시서, 부품 부족, 품질 문제 등 다양한 데이터를 한 곳에 모아 팀 간 협업과 문제 해결을 지원하는 인터페이스를 제공함
• 범용성보다는 특정 문제에 대한 종단간 해결책을 제공하는 것이 목표였고, PD의 역할은 이를 일반화하여 다른 곳에 판매하는 것이었음
• FDE는 빠른 문제 해결을 위해 기술 부채를 감수하고, PD는 확장성 있고 견고한 소프트웨어를 작성하는 역할 분담이 효과적이었음
• 고객사 내에 깊숙이 파고들어 신뢰를 얻고 빠르게 핵심 가치를 전달하는 FDE의 역량이 돋보였음
• 작은 고객 팀이 자율적이고 민첩하게 움직이고, 제품팀이 이를 바탕으로 플랫폼을 개발하는 모델이 강력했음
• 스페이스X나 팔란티어처럼 정치적 게임이 아닌 실제 성과로 차별화하는 기업이 더 필요함
3. 팔란티어의 비밀
• FDE의 또 다른 핵심 업무는 데이터 통합이었음
• 데이터 통합은 오랫동안 팔란티어가 하는 일의 핵심이었지만 그 중요성이 과소평가되어 왔음
• 최근 AI의 등장으로 기업의 깨끗하고 잘 정리된 데이터의 중요성이 부각되고 있음
• 데이터 통합이란 (a) 기업 데이터에 대한 접근권을 확보하고 (b) 데이터를 정제 및 변환한 뒤 (c) 모두가 접근할 수 있는 곳에 저장하는 것을 의미함
• 파운드리의 기반 소프트웨어 상당 부분이 이 작업을 쉽고 빠르게 해주는 도구임
• 데이터가 PDF, 노트, 엑셀 등 다양한 형식으로 존재해 통합이 어려움
• 조직 내 정치도 걸림돌인데, 특정 팀이 핵심 데이터에 대한 접근을 통제하며 존재 이유를 삼는 경우가 많음
• 데이터 접근권을 확보하는 데만 파일럿 프로젝트 기간을 모두 소진하고 데모를 서둘러 준비해야 했던 경우도 있음
• 데이터 접근 문제의 상당 부분이 보안 우려에서 비롯된다는 점을 파악하고 플랫폼 전반에 걸쳐 보안 통제 기능을 구축함
• 역할 기반 접근 제어, 행 수준 정책, 보안 마킹, 감사 추적 등 다양한 데이터 보안 기능을 도입함
• 이러한 기능 덕분에 팔란티어 도입이 오히려 기업 데이터 보안을 강화하는 결과를 가져옴
4. 문화에 대한 참고사항
• 팔란티어의 분위기는 정상적인 소프트웨어 회사라기보다는 메시아닉 컬트에 가까웠음
• 그러나 비판이 허용되고 장려되었는데, 신입 엔지니어가 전체 메일로 임원과 논쟁하기도 함
• 합리주의적 사고를 가진 철학과 졸업생인 나에게 이 점이 중요했음. 맹목적 추종이 아닌 세상에 대해 깊이 고민하고 토론하는 회사에 관심이 있었음
• 입사 시 Impro, The Looming Tower, Interviewing Users, Getting Things Done 등의 책을 줌
• The Looming Tower는 회사가 9/11에 대한 대응으로 설립되었다는 배경 지식을 줌
• Impro는 사회적 맥락에 대한 민감성, 즉 정치적 게임을 하는 능력이 FDE 성공에 중요함을 일깨워 줌
• Impro는 사회적 행동을 기계적으로 분석하는데, 'casting' 등 관련 용어가 사내에 널리 쓰임
• 고개를 가만히 하고 서서 손을 보이는 것은 높은 지위를, 고개를 좌우로 움직이고 손을 주머니에 넣는 것은 낮은 지위를 나타냄
• 이런 원리를 모른다면 고객사 환경에서 성공하기 어려웠을 것임
• 전직 FDE들이 훌륭한 창업자가 되는 이유 중 하나임. 구글 출신보다 팔란티어 출신 창업자가 YC에 더 많음
• 훌륭한 창업자는 회의 분위기, 집단 역학, 권력 관계를 읽어내는 감각이 있음. 이는 팔란티어가 FDE에게 가르치지만 다른 밸리 회사에서는 배우기 힘든 것임
• FDE는 빠르게 고객사의 언어를 배우고 비즈니스를 깊이 이해하는 능력이 필요함
• 병원, 신약개발, 의료보험, 정보학, 면역항암요법 등 각 분야마다 전문 용어가 있고 이를 빨리 습득하는 사람이 성공함
• 재능있는 사람은 자신만의 어휘와 밈을 만들어내는데, 이는 그 사람만의 지적 세계로 들어가는 입구 역할을 함
• 회사도 마찬가지인데 팔란티어에는 'ontology', 'impl', 'artist's colony', 'compounding', 'the 36 chambers', 'dots', 'metabolizing pain', 'gamma radiation' 등 방대한 용어가 있음
• 피터 틸이 팔란티어하면 가장 먼저 떠오르지만 많은 용어가 초기 직원, 특히 현 사장인 샴 산카르로부터 나옴
• 피터 틸은 내가 근무할 당시 회사 운영에는 관여하지 않았지만 문화에 큰 영향을 미쳤음
• 직함을 두지 않는 것도 피터 틸의 아이디어로 보임. FDE와 소수의 임원을 제외하고는 모두 같은 직함을 가졌음
• 직함을 만들면 사람들이 그것을 탐내게 되고 내부 정치와 경쟁을 유발한다는 지라르의 사상에 기반한 것으로 보임
• 계층이 없는 조직에 대한 비판도 많고 요즘 스타트업에서는 유행이 지났지만, 팔란티어에서는 잘 작동했음
• 영향력은 인상적인 성과에 기반했고, 누구도 다른 사람에게 무엇을 하라고 지시할 수 없었음
• 영향력 있는 사람이 내 아이디어를 말도 안 된다고 해도 무시하고 옳다고 생각하면 만들 수 있었음
• 임원의 반대를 무릅쓰고 중요한 인프라를 만든 엔지니어의 일화가 미담으로 회자되며 이런 행동이 장려됨
• 단점은 회사에 명확한 전략이나 방향이 없어 보이고 똑똑한 사람들이 제각각 자기 영지를 구축하는 느낌이었음
• 그러나 이는 놀라울 정도로 창의적인 결과를 낳았음. Hex, Retool, Airflow 등 팔란티어에서 먼저 개발된 개념이 적잖음
• 회사는 지금도 대기업에 LLM을 배포하기 위한 강력한 도구를 만들고 있음
• 직함이 없어서 사람들의 인기가 들쭉날쭉했음. 누군가 영향력이 있다가도 몇 달 뒤 보면 눈에 띄는 일을 하지 않고 있었음
5. Bat-Signal(인재 유치 전략)
• 피터 틸로부터 비롯된 또 다른 아이디어는 인재 배트시그널(talent bat-signals)임
• 이제 내 회사를 차렸기에 그 중요성을 더 실감함. 훌륭한 사람을 모집하기란 어려운 일이고 차별화된 인재 풀이 필요함

Continuous Learning_Startup & Investment

18 Oct, 06:34


• 매년 페이스북/구글과 스탠포드 CS 졸업생을 놓고 경쟁한다면 패배할 수밖에 없음
• (a) 다른 회사보다 특별히 당신 회사에 관심이 있고 (b) 대규모로 그들에게 다가갈 방법이 있는 인재 집단이 필요함
• 팔란티어에는 몇 가지 차별화된 인재 유치 전략이 있었음
• 첫째, 국방/정보 분야 일이 인기 없을 때 이 분야에 우호적이었던 사람들이 있었음. 평소보다 미국 중서부나 공화당 지역 출신의 엔지니어가 많았고, 실리콘밸리 회사에 매력을 느끼면서도 미국에 봉사하고 싶어하는 전직 군인, CIA/NSA 출신이 많았음
• 팔란티어 첫 출근 날, 내부 온보딩에서 만난 한 남자가 자신이 CIA에서 15년간 일했다고 했음. 내 첫 리더는 오하이오 출신의 전직 특공대 경찰이자 육군 베테랑이었음
• 이런 사람들이 많았고 대부분 굉장한 인재였지만 구글에는 가지 않았음
• 팔란티어는 이런 부류에게 유일한 '등대' 역할을 했고, 군대 지원과 애국심을 강조하는 것이 매우 비주류적일 때 이를 당당히 내세웠음
• 이는 매우 효과적이고 독특한 배트시그널을 만들었음 (이제는 Anduril과 수많은 국방 및 제조업 스타트업이 있음)
• 둘째, 초기 열풍이 가라앉은 뒤, 특히 트럼프 시대 팔란티어가 지탄 받을 때 회사에 합류하려면 좀 이상해야 했음
• 이는 '미션 중심'이라는 당시로서는 이례적인 브랜딩에서 비롯되었지만, 장시간 근무, 시장 이하 급여, 잦은 출장이 요구된다는 점도 회사가 떠들썩하게 알렸음
• 한편으로는 정부와 일한다는 이유로 실리콘밸리 채용 박람회에서 쫓겨나기도 했음
• 이 모든 것이 나쁜 소식에 흔들리지 않고 스스로 생각할 줄 아는 특정 부류의 사람을 선별해냄
6. 도덕성
• 팔란티어는 서방을 지지하는 입장인데, 나도 대체로 동의함
• 중국이나 러시아 중심의 세계는 나쁜 것 같고, 그게 우리 앞에 놓인 선택지임
• 자유 국가에 살면 비판하기 쉽지만, 그 반대를 경험해보면 어려움 (억압적인 국가에서 어린 시절을 보냄)
• 군대가 하는 일에 동의하지 않을 때도 있었지만 회사가 군을 돕는 것 자체에는 문제가 없었음
• 물론 군대도 나쁜 짓을 하기도 함. 나는 이라크 전쟁에 반대했음
• 이게 핵심인데, 회사에서 일하는 것이 100% 도덕적으로 선하지도, 100% 나쁘지도 않음
• 때론 내가 반대하는 목표를 가진 기관을 돕기도 했지만, 정부는 많은 좋은 일도 하고 더 효율적으로 하도록 소프트웨어를 제공하는 것은 고귀한 일임
• 회사 일을 세 범주로 나눠보면 도덕성 문제를 명확히 할 수 있음 (완벽한 분류는 아니지만):
1 도덕적으로 중립적인 일: FedEx, CVS, 금융사, 기술 기업 등 일반 기업 관련 업무. 문제 삼는 사람도 있겠지만 대체로 괜찮다고 느낌
2 명백히 선한 일: CDC와의 팬데믹 대응, NCMEC와의 아동 포르노 대응 등 대부분 사람들이 좋은 일이라 동의함
3 회색 지대: 도덕적으로 어렵고 까다로운 결정이 필요한 영역. 건강보험, 이민 단속, 석유회사, 군대, 정보기관, 경찰/범죄 등
• 모든 엔지니어는 선택의 기로에 섬. 구글 검색이나 페이스북 뉴스피드 같이 약간 좋아 보이는 1번 범주나, GiveDirectly 같은 2번 범주를 고를 수 있음
• 팔란티어에 대한 주된 비판은 "3번 범주에선 일하면 안 된다. 때론 도덕적으로 나쁜 결정을 내려야 하니까"였음. 트럼프 시대 이민 단속이 한 예시임
• 그러나 3번을 완전히 무시하고 관여를 끊는 것도 책임 방기라고 봄. 3번 범주 기관은 존재해야 함
• 미국은 총을 든 사람들에 의해 지켜짐. 경찰은 범죄와 싸워야 하고, 일부 경찰 활동이 불편해도 집이 털리면 경찰에 신고함. 석유회사는 에너지를 공급해야 함. 건강보험사는 어려운 결정을 계속 내려야 함
• 그런 것들에 불쾌한 면이 있긴 하지만, 그 기관들을 내버려둬야 할까?
• 3번 고객과 일해야 하는지 명확한 답은 없고 사례별로 접근해야 한다고 봄
• 팔란티어의 입장은 "명백히 나쁘지 않은 한 대부분 3번 기관과 일하되, 민주적 절차를 믿고 시간이 지나면 좋은 방향으로 갈 것"이었음
◦ ICE 문제에선 트럼프 시대에 ERO(단속·추방 업무)와는 관계를 끊고 HSI(국토안보수사국)와는 계속 일함
◦ 대부분 3번 기관과 일했는데, 나쁜 일도 하지만 대체로 세상에 이롭다는 논리였음
• 자세한 내용은 말할 순 없지만 팔란티어 소프트웨어 덕에 여러 테러 공격이 저지되었고, 이 사실만으로 이런 입장이 정당화된다고 봄
• 항상 100% 선한 일만 한다는 보장이 없어 많은 이에게 불편한 입장임. 어떻게 보면 역사의 흐름에 身을 맡기는 셈이고 (a) 악보다 선이 더 많이 행해지고 (b) 현장에 있는 게 없는 것보다 낫다는 걸 믿어야 함
• 이 정도면 나한테 충분했음. 다른 이들은 다른 선택을 했음
• 물론 이런 입장의 위험은 기존 권력 구조가 하자는 대로 하는 보편적 변명이 될 수 있다는 것. 그냥 기존 체제를 강화하는 꼴임
• 그래서 사례별로 접근해야 함. 일반론은 없고 구체적으로 봐야 함
• 나 역시 의료, 바이오 분야에 시간을 많이 투자했고 기여한 바에 대해 만족함. 테러를 막은 사람들도, 팬데믹 때 의약품을 유통한 사람들도 마찬가지일 거임
• 이런 '까다로운' 영역에서 일하는 게 이젠 유행이 되었지만, 기술자에겐 여전히 중요한 질문임
• AI가 좋은 예시임. AI 도입의 일부 결과가 걱정되는 사람이 많음. 해킹에 쓰일 수도, 딥페이크가 세상을 나쁘게 만들 수도, 일자리를 없앨 수도 있음. 그러나 AI에는 큰 장점도 있음 (다리오 아모데이가 최근 에세이에서 잘 설명함)
• 팔란티어처럼 AI에 대해 일하는 것도 100% 선하진 않겠지만 100% 악하지도 않음. 관여를 멈추고 중단을 요구하는 건 비현실적이고 최선은 아닐 듯
• 오픈AI나 앤트로픽에서 일하진 않더라도 AI 관련 이슈에 관여할 만한 사람이라면 어떤 식으로든 참여하길 바람
• 쉬운 경우도 있음: 평가 구축, 정렬 연구, 사회적 회복탄력성 제고 등. 하지만 회색 지대에 참여할 가치도 있다고 봄. 정부 AI 정책에 관여하고, 의료 같은 분야에 AI를 도입하는 일 등. 물론 어려울 것임. 그래도 뛰어들자
• 요즘 AI 분야에서 가장 영향력 있는 사람들은 대부분 현장에 있음. AI 연구소든 정부든 영향력 있는 싱크탱크든. 그들 중 하나가 되고 싶음. 설교하는 사람이 되긴 싫음
• 어려운 결정이 뒤따르겠지만, 일이 일어날 때 그 자리에 있는 게 낫다고 봄. 나중에 그만두고 경종을 울려야 한다 해도 말임
7. 앞으로의 전망
• 팔란티어에 대해 계속 긍정적인가? 그렇다.
• 이번 AI 사이클의 큰 생산성 향상은 AI가 제조, 국방, 물류, 의료 등 대기업들에게 레버리지를 제공할 때 일어날 것임
• 팔란티어는 10년간 이런 기업들과 함께 일해왔음
• AI 에이전트가 결국 핵심 업무 절차를 주도하게 될 것이고, 이들은 중요 비즈니스 데이터에 대한 읽기/쓰기 권한에 의존할 것임
• 10년간 기업 데이터를 통합해온 것이 기업에 AI를 도입하기 위한 핵심 기반임. 엄청난 기회가 있음
• 나 역시 오래 기다려온 마스터플랜을 실행에 옮겨 다음엔 창업할 계획임
• 정부 관련 사업도 포함될 것임. 팀도 훌륭하고 채용 중임. 가끔 비트겐슈타인 얘기도 나눔

Continuous Learning_Startup & Investment

17 Oct, 15:36


https://open.substack.com/pub/nabeelqu/p/reflections-on-palantir?r=1dax0&utm_campaign=post&utm_medium=web

Continuous Learning_Startup & Investment

17 Oct, 03:10


컴퓨터가 사람보다 훨씬 더 뛰어날 수 있는 이유 중 하나는 수백만 대의 자동차가 운전 훈련을 하고 있기 때문입니다. 이는 마치 수백만 개의 삶을 동시에 살면서 사람이 평생 볼 수 없는 매우 특이한 상황을 보는 것과 같습니다. 그 정도의 훈련 데이터라면 사람이 백만 번의 삶을 살 수는 없으니 분명 사람보다 훨씬 더 나은 결과를 얻을 수 있을 것입니다. 또한 모든 방향을 동시에 볼 수 있고, 피곤하거나 문자를 보내거나 그런 것들도 없으니 당연히 인간보다 10배, 20배, 30배 더 안전할 것입니다.

제가 강조하고 싶은 것은 우리가 가진 솔루션은 AI와 비전이라는 점입니다. 고가의 장비가 필요하지 않습니다. 현재 우리가 만드는 모델 3와 모델 Y, S, X는 감독 없이 완전 자율주행을 할 수 있습니다. 이는 곧 차량 생산 비용이 낮다는 것을 의미합니다.

사람들은 웨이모가 테슬라보다 앞서 있다고 생각하지만, 저는 개인적으로 테슬라가 웨이모보다 앞서 있다고 생각하며, 그렇게 보이지 않는다는 것을 알고 있지만 저는 여전히 테슬라와 자율 주행 프로그램에 대해 매우 낙관적입니다. 테슬라에는 소프트웨어 문제가 있고 웨이모에는 하드웨어 문제가 있다고 생각하는데, 제 생각에는 소프트웨어 문제가 훨씬 쉽다고 생각합니다. 테슬라는 이 모든 자동차를 지구상에 대규모로 배치하고 있고, 웨이모는 거기에 도달해야 한다고 생각합니다. 테슬라가 실제로 배포할 수 있는 지점에 도달하고 실제로 작동하는 순간은 정말 놀라울 것이라고 생각합니다.

사람들이 테슬라가 실제로 값비싼 센서를 많이 사용한다는 사실을 잘 모르고 있는 것 같아요. 그래서 라이더를 장착하고 주행하는 수많은 자동차가 있고, 스케일을 조정하지 않고 추가 센서 등을 장착하고 매핑과 이런 모든 작업을 수행합니다. 훈련 시간에는 이 작업을 수행한 다음 이를 테스트 시간 패키지로 추출하여 차량에 배포하고 시각 전용으로 사용합니다. 센서와 비용에 대한 차익 거래와 같습니다. 픽셀에 정보가 있고 네트워크가 이를 수행할 수 있기 때문에 훈련 시에는 이러한 센서가 정말 유용하다고 생각하지만 테스트 시에는 그다지 유용하지 않다고 생각하기 때문에 저는 이것이 실제로 완전히 평가되지 않은 일종의 훌륭한 전략이라고 생각합니다.

Continuous Learning_Startup & Investment

17 Oct, 03:07


70년간의 AI 연구에서 얻을 수 있는 가장 큰 교훈은 계산을 활용하는 일반적인 방법이 궁극적으로 가장 효과적이며 큰 차이로 가장 효과적이라는 것입니다. 그 궁극적인 이유는 무어의 법칙, 즉 계산 단위당 비용이 기하급수적으로 계속 하락한다는 법칙이 일반화되었기 때문입니다. 대부분의 AI 연구는 에이전트가 사용할 수 있는 연산이 일정한 것처럼 수행되어 왔지만(이 경우 인간의 지식을 활용하는 것이 성능을 개선하는 유일한 방법 중 하나), 일반적인 연구 프로젝트보다 약간 더 오랜 시간이 지나면 필연적으로 더 많은 연산을 사용할 수 있게 됩니다.

연구자들은 단기간에 변화를 가져올 수 있는 개선을 추구하기 위해 해당 분야에 대한 인간의 지식을 활용하려고 하지만, 장기적으로 중요한 것은 계산의 활용뿐입니다. 이 두 가지가 서로 상충할 필요는 없지만 실제로는 상충하는 경향이 있습니다. 한 쪽에 투자한 시간은 다른 쪽에 투자하지 않은 시간입니다. 한 가지 접근 방식 또는 다른 접근 방식에 투자하는 데에는 심리적인 부담이 있습니다. 그리고 인간 지식 접근 방식은 계산을 활용하는 일반적인 방법을 활용하는 데 적합하지 않은 방식으로 방법을 복잡하게 만드는 경향이 있습니다.AI 연구자들이 이 쓰라린 교훈을 뒤늦게 깨달은 사례는 많으며, 가장 눈에 띄는 몇 가지 사례를 살펴보는 것은 유익합니다.

이것은 큰 교훈입니다. 현장에서는 여전히 같은 종류의 실수를 계속 저지르고 있기 때문에 우리는 아직 완전히 배우지 못했습니다. 이를 파악하고 효과적으로 저항하기 위해서는 이러한 실수의 매력을 이해해야 합니다. 우리가 생각하는 방식으로 구축하는 것은 장기적으로 효과가 없다는 씁쓸한 교훈을 배워야 합니다. 이 쓰라린 교훈은 1) 인공지능 연구자들이 종종 에이전트에 지식을 구축하려고 시도해왔고, 2) 이는 단기적으로는 항상 도움이 되고 연구자에게 개인적으로 만족감을 주지만 3) 장기적으로는 정체되고 심지어 더 이상의 발전을 억제하며, 4) 결국 검색 및 학습에 의한 확장 계산에 기반한 반대 접근 방식을 통해 획기적인 발전이 이루어졌다는 역사적 관찰에 근거하고 있습니다. 최종적인 성공은 인간 중심의 선호된 접근 방식에 대한 성공이기 때문에 씁쓸함이 묻어나고 종종 불완전하게 소화되기도 합니다.

이 쓰라린 교훈에서 배워야 할 한 가지는 범용 방법, 즉 사용 가능한 계산이 매우 커져도 계산이 증가함에 따라 계속 확장되는 방법의 막강한 힘입니다. 이렇게 자의적으로 확장되는 것처럼 보이는 두 가지 방법은 검색과 학습입니다.

쓰라린 교훈에서 배워야 할 두 번째 일반적인 점은 마음의 실제 내용은 엄청나게, 헤아릴 수 없을 정도로 복잡하다는 것입니다. 공간, 사물, 다중 에이전트 또는 대칭에 대해 생각하는 간단한 방법과 같이 마음의 내용을 생각하는 간단한 방법을 찾으려는 시도를 중단해야 한다는 것입니다. 이 모든 것은 임의적이고 본질적으로 복잡한 외부 세계의 일부입니다. 이러한 복잡성은 끝이 없기 때문에 내장되어야 하는 것이 아니라 이러한 임의의 복잡성을 찾아서 포착할 수 있는 메타 메서드만 내장해야 합니다. 이러한 방법의 핵심은 좋은 근사치를 찾을 수 있다는 것이지만, 근사치 검색은 우리가 아닌 다른 방법으로 해야 한다는 것입니다. 우리는 우리가 발견한 것을 포함하는 것이 아니라 우리가 발견한 것처럼 발견할 수 있는 AI 에이전트를 원합니다. 발견한 내용을 담으면 발견 프로세스가 어떻게 이루어질 수 있는지 파악하기가 더 어려워질 뿐입니다.

http://www.incompleteideas.net/IncIdeas/BitterLesson.html