Jump to content

Openai/695938b8-11f8-8012-a90d-591eed91eb4f

From freem


This conversation was exported from ChatGPT[1]

gpt-5-2[edit | edit source]

User: 팔란티어 주주 카프의 철학에 대해서 알려줘[edit | edit source]

팔란티어 주주 카프의 철학에 대해서 알려줘

Assistant: 팔란티어Palantir의 공동창업자이자 장기 주주인 피터 틸Peter Thiel의 철학과, 현 CEO 알렉스 카프Alex Karp의 철학이 자주 함께 언급되는데, 질문하신 “주주 카프의 철학”은 보통 알렉스 카프의…[edit | edit source]

팔란티어(Palantir)의 공동창업자이자 장기 주주인 피터 틸(Peter Thiel)의 철학과, 현 CEO 알렉스 카프(Alex Karp)의 철학이 자주 함께 언급되는데, 질문하신 “주주 카프의 철학”은 보통 알렉스 카프의 경영·사상적 철학을 의미하는 경우가 많습니다. 그래서 ① 카프의 철학을 중심으로, 필요하면 ② 틸과의 차이도 함께 정리해 드릴게요.

###[edit | edit source]

카프는 실리콘밸리에서 드물게 기술의 ‘가치중립성’을 강하게 부정합니다.

  • 기술은 → 누가 쓰느냐, → 어떤 국가·체제에 봉사하느냐에 따라 → 세상을 더 자유롭게도, 더 억압적으로도 만든다
  • 그래서 팔란티어는 민주주의 국가, 서방 동맹, 법치 체계를 명확히 편든다고 공개적으로 말함

👉 “모든 고객이 고객이 될 수는 없다”는 철학

실리콘밸리는 전통적으로:[edit | edit source]
  • “정부 = 비효율적”
  • “국방 = 구식” 이라는 인식이 강했지만,

카프는 정반대 입장입니다.

  • 국가 안보·정보 분석·전쟁 억지는 → 민간 기술기업이 반드시 기여해야 할 영역
  • 팔란티어는 CIA, 국방부, NATO, 우크라이나 정부 등과 협업

👉 “국가가 망하면 시장도 없다”

카프는 월가식 사고를 매우 싫어합니다.[edit | edit source]
  • 단기 주가
  • 분기 실적 맞추기
  • 투자자 눈치 보기 → 이런 것에 회사를 맞추지 않겠다고 여러 차례 선언

대신:

  • 10년, 20년 후에도 필요한 기술
  • 역사적으로 의미 있는 문제를 해결하는 회사가 되려 함

그래서:

  • 상장 이후에도 → “우리는 일반적인 SaaS 기업이 아니다” → “성장 방식도 다를 수밖에 없다”고 강조
카프 철학의 핵심 키워드 중 하나는 “유능한 소수(elite)의 책임”입니다.[edit | edit source]
  • 모든 사람이 모든 결정을 민주적으로 하면 → 복잡한 문제(전쟁, 테러, 공급망 붕괴)는 해결 불가
  • 대신: - 뛰어난 소수 - 강한 윤리의식 - 명확한 책임 를 가진 집단이 필요

👉 AI·데이터 분석 같은 “위험한 도구”일수록 아무에게나 주면 안 된다는 생각

카프는 AI 낙관론자이면서도 강한 경계론자입니다.[edit | edit source]
  • AI는: - 인간 의사결정을 대체하는 도구가 아니라 - 증폭시키는 도구
  • 완전 자동화, 블랙박스 AI를 경계
  • 그래서 팔란티어의 AI는: - 사람이 최종 판단 - 설명 가능성 - 감사 가능성 을 매우 중시

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | | | | | | | | | |

👉 카프 = 영혼, 틸 = 구조라고 표현하는 투자자도 많음

장점[edit | edit source]

  • 단기 트렌드에 흔들리지 않음
  • 국가 단위의 장기 계약
  • 경쟁자 진입장벽 매우 높음

리스크

  • 정부 예산·정치 변수 영향 큼
  • 성장 속도가 일반 빅테크보다 느려 보일 수 있음
  • CEO 철학이 너무 강함 (호불호)
:[edit | edit source]

원하시면

  • 🟢 팔란티어가 AI 시대에 왜 다시 주목받는지
  • 🟢 카프 철학이 주가 변동성에 미치는 영향
  • 🟢 장기투자 관점에서 맞는 종목인지 이런 쪽으로도 더 깊게 풀어드릴게요.

User: 세개 다 알려줘[edit | edit source]

세개 다 알려줘

Assistant: 좋아요.[edit | edit source]

좋아요. 그럼 ① 왜 AI 시대에 팔란티어가 다시 주목받는지 → ② 카프 철학이 주가 변동성에 미치는 영향 → ③ 장기투자 관점에서 적합한지 이 순서로 하나의 흐름으로 정리해드릴게요.

###[edit | edit source]

팔란티어는 이 빈자리를 거의 독점하고 있습니다.

###[edit | edit source]

  • LLM / 생성형 AI
  • 자동화
  • “AI가 대신 결정”
  • 결과가 틀려도 책임 주체 불명확
- AI + 인간 의사결정 구조[edit | edit source]
  • 설명 가능성, 감사 로그, 권한 통제
  • 누가 어떤 데이터로 어떤 판단을 했는지 추적 가능

👉 전쟁·국방·금융·제조·의료처럼 “틀리면 큰일 나는 영역”에서는 팔란티어 방식 말고는 선택지가 거의 없음

AI가 확산되면서 기업들이 깨달은 현실:[edit | edit source]

  • ❌ 데이터는 많은데 연결이 안 됨
  • ❌ AI가 말은 하는데 믿을 수가 없음
  • ❌ 규제·감사·보안 때문에 도입을 못 함

팔란티어는:

  • 이미 10~15년 전부터
  • 정부·정보기관 기준으로
  • “AI를 통제하는 법”을 만들어 둔 회사

👉 AI 붐이 올수록 ‘제일 늦게 평가받던 회사’가 갑자기 재평가

- 단순 구독툴 ❌[edit | edit source]

  • 고객 시스템 깊숙이 들어감
  • 한 번 들어가면 교체 거의 불가능
  • 계약 규모가 커지고, 시간이 갈수록 확장됨

→ AI 시대의 ‘운영체제(OS)’ 포지션

###[edit | edit source]

그래서 주가는 항상 극단을 오감.

###[edit | edit source]

  • “우리는 일반 SaaS처럼 성장 안 한다”
  • “중요한 문제를 푸는 게 먼저다” → 투자자 입장에선 답답
- 정치 이슈[edit | edit source]
  • 예산 지연
  • 계약 시점 불확실 → 분기별 실적 변동 큼
- 실리콘밸리 비판[edit | edit source]
  • AI 무분별 사용 비판
  • 민주주의 vs 권위주의 구도 발언

👉 단기 투자자에겐 리스크

팔란티어 주가 패턴:[edit | edit source]

  • 기대 ↓ → 과도한 저평가
  • 실제 성과 증명 → 급등
  • 다시 기대 과열 → 조정

이유는 단순:

  • “이 회사의 가치를 설명하기 어렵기 때문”
  • 숫자보다 철학·구조·장기 계약이 중요

👉 이해 못하면 팔고 👉 이해한 사람만 남음

- 유행 따라 안 바뀜[edit | edit source]

  • AI 버블에도 방향 유지
  • 기술 트렌드 바뀌어도 핵심은 동일

→ 변동성은 크지만, 붕괴 가능성은 낮음

이건 투자 성향에 따라 명확히 갈립니다.[edit | edit source]

✅ 5~10년 이상 투자[edit | edit source]

✅ 단기 주가 변동 감내 가능 ✅ 산업 + 국가 + 기술 흐름을 함께 보는 스타일 ✅ “AI 인프라 기업”을 원함

이유:

  • AI 규제 강화 → 팔란티어 유리
  • 지정학적 긴장 지속 → 국방·정보 수요 증가
  • 대기업·정부 데이터 복잡도 ↑ → 진입장벽 강화

👉 시간이 갈수록 해자가 깊어지는 구조

❌ 1~2년 단기 수익 목표[edit | edit source]

❌ 분기 실적이 명확해야 안심 ❌ CEO 리스크 싫어함 ❌ 밸류에이션 민감

→ 이 경우 엔비디아·MS·구글이 더 적합

- 비중 과하지 않게[edit | edit source]

  • 시장 과열 시 추격 매수 ❌
  • 큰 조정 시 분할 매수 ⭕
  • “AI 대장주”가 아니라 “AI 질서 설계자”로 이해

- 왜 주목? → AI를 “책임 있게 쓰는 방법”을 이미 가진 회사[edit | edit source]

  • 왜 변동성 큼? → 카프 철학이 월가 논리와 충돌
  • 장기투자 적합? → 인내심 있는 투자자에게는 매우 독특한 자산
:[edit | edit source]

원하시면

  • 📊 현재 밸류에이션이 역사적으로 어떤 구간인지
  • 🇰🇷 한국 투자자 입장에서 환율·세금 포함 전략
  • 🧠 엔비디아·MS·팔란티어 역할 분담 구조 이 중에서 이어서 더 파볼까요?

User: aip랑 saas가 뭐야[edit | edit source]

aip랑 saas가 뭐야

Assistant: 좋은 질문이에요.[edit | edit source]

좋은 질문이에요. 팔란티어 이해의 핵심 기초 개념이라서, 비유 → 정의 → 차이 → 팔란티어에 왜 중요한지 순서로 쉽게 설명할게요.

###[edit | edit source]

- 넷플릭스 👉 영상 콘텐츠를 구독[edit | edit source]
  • 카카오워크 / 슬랙 👉 협업툴을 구독
  • 회계·CRM·메일툴 👉 매달 사용료 내고 사용

👉 “필요하면 켜고, 싫으면 해지”

- 월/연 단위 구독[edit | edit source]
  • 표준화된 기능
  • 고객마다 크게 다르지 않음
  • 교체가 비교적 쉬움
  • 빠른 도입, 빠른 해지

📌 예:

  • Salesforce
  • Zoom
  • Notion
  • Google Workspace

###[edit | edit source]

⚠️ 일반 용어처럼 쓰이지만, 팔란티어 고유 제품 이름이라고 이해하면 정확해요.

- SaaS = 완제품 가전[edit | edit source]
  • AIP = 공장 운영 시스템(OS)
AIP는 단순한 AI 챗봇이 아니라:[edit | edit source]
  • 기업/정부의 모든 데이터 연결
  • AI 모델을 실제 업무 프로세스에 붙임
  • 사람이 승인·통제하면서 AI를 사용
  • 결과에 대한 책임 구조를 남김

👉 “AI가 뭐라고 말했는지”가 아니라 👉 “그 말로 누가 어떤 결정을 했는지”가 핵심

SaaS 방식[edit | edit source]
  • “이상 징후가 있습니다” (알림 끝)

AIP 방식

  1. 공정 데이터 + 재고 + 납기 + 인력 정보 통합
  2. AI가 생산 중단 vs 계속 가동 시나리오 제안
  3. 관리자 승인
  4. 실제 실행
  5. 전 과정 로그 저장 (감사 가능)

👉 의사결정 시스템

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | | | | | | | | | | | | | | | | | | | | | |

카프가 계속 강조하는 말:[edit | edit source]

이유는:

  • 팔란티어는 ❌ “툴 하나 파는 회사”가 아니라 ⭕ “조직의 운영 방식을 바꾸는 회사”
  • 고객 입장에서: - 도입은 힘들지만 - 한 번 쓰면 없으면 운영이 안 됨

👉 그래서:

  • 매출 인식이 느림
  • 분기 변동성 큼
  • 대신 장기 계약 + 해지 거의 없음

###[edit | edit source]

  • 성장률
  • 고객 수
  • 구독 유지율
- 고객 깊이[edit | edit source]
  • 계약 확대
  • 국가·대기업 침투율
  • 교체 불가능성

👉 평가 기준 자체가 다름

- SaaS = 구독형 소프트웨어 도구[edit | edit source]

  • AIP (팔란티어) = AI를 통제하면서 의사결정에 쓰는 운영 인프라
  • 차이의 본질 👉 “편리한 도구” vs “없으면 안 되는 시스템”

다음으로 이어서 보면 좋은 주제는:

  • 🧠 왜 정부·국방은 SaaS를 못 쓰고 AIP를 쓰는지
  • 💰 AIP는 매출이 어떻게 커지는 구조인지
  • ⚠️ 팔란티어 리스크 (의존도·정치·윤리)

원하시는 거 하나 골라볼까요?

User: 다 알려줘[edit | edit source]

다 알려줘

Assistant: 와, 좋아요.[edit | edit source]

와, 좋아요. 그럼 ① 왜 정부·국방은 SaaS를 못 쓰고 AIP를 쓰는지 → ② AIP 매출이 커지는 구조 → ③ 팔란티어의 리스크 이걸 한 번에, 연결해서 정리해드릴게요. 이해하고 나면 팔란티어가 왜 “특이한 회사”인지 확 와닿을 겁니다.

###[edit | edit source]

일반 기업과 완전히 다릅니다.[edit | edit source]

  • 데이터 출처 수십~수백 개
  • 기밀 등급(Top Secret, Secret 등) 존재
  • 부서·군·국가 간 데이터 장벽
  • 결정 하나가 사람 생명·국가 운명에 영향

👉 “알아서 해주는 AI”는 절대 금지

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | |

👉 SaaS는 “편리한 사무툴”까지가 한계

- 온프레미스 / 폐쇄망 가능[edit | edit source]

  • 데이터 접근 권한 사람·조직별로 분리
  • AI가 제안 → 사람 승인 → 실행
  • 모든 결정 로그 저장

👉 전쟁 후 감사까지 가능한 구조

그래서:

  • 미 국방부
  • NATO
  • 우크라이나 정부 같은 곳에서 선택

###[edit | edit source]

- 특정 부서[edit | edit source]

  • 특정 임무
  • 매출은 작아 보임
  • 시장은 실망 😑

- 현장 효율 급증[edit | edit source]

  • 의사결정 속도 개선
  • 위기 상황에서 성과 증명

👉 교체 불가 상태 진입

- 부서 → 조직 전체[edit | edit source]

  • 분석 → 운영 → AI 의사결정
  • 사용자 수가 아니라 업무 깊이 확장

👉 계약 규모 몇 배로 커짐

- 3~10년 단위[edit | edit source]

  • 예산에 “고정 비용”으로 편입
  • 경기 침체에도 유지
- 신규 고객 증가율 ❌[edit | edit source]
  • 기존 고객 매출 확대 ⭕
  • 분기 변동성 큼
  • 장기 누적 매출은 계속 증가

좋은 회사 ≠ 무조건 좋은 투자[edit | edit source]

리스크를 정확히 알아야 합니다.

- 정부 예산 삭감[edit | edit source]

  • 정권 교체
  • 국방·감시 논란

👉 계약 지연·중단 가능성

- 정부·대기업 비중 큼[edit | edit source]

  • 한 고객의 영향력이 큼

👉 SaaS처럼 고객 수로 분산되지 않음

- 철학적 발언 많음[edit | edit source]

  • 정치적 스탠스 명확
  • 월가와 자주 충돌

👉 단기 주가엔 불리

- 매출은 늘지만[edit | edit source]

  • “폭발적 성장”처럼 안 보임
  • AI 붐에서 상대적으로 소외된 것처럼 보일 수 있음

👉 이해 못하면 중간에 팔기 쉬움

- 감시 기술[edit | edit source]

  • 군사 활용
  • 인권 이슈

👉 일부 기관·국가에서 배제 가능

===

SaaS:        편리함 → 빠른 도입 → 쉬운 교체 ===
AIP:   통제·책임 → 느린 도입 → 교체 불가

정부·국방:
SaaS ❌
AIP ⭕

- 팔란티어는 - AI 유행을 타는 회사 ❌ - AI 시대의 “질서 설계자” ⭕[edit | edit source]

  • 주가는 - 단기: 뉴스·발언·기대에 흔들림 - 장기: 계약 누적에 따라 움직임
  • 맞는 투자자 - 인내심 있음 - 변동성 감내 - 기술 + 국가 + 제도 같이 봄
:[edit | edit source]

다음으로 이어서 진짜 재밌는 주제도 있어요:

  • 📉 왜 팔란티어는 항상 논쟁적인 밸류에이션을 받는지
  • 🧩 엔비디아·MS·팔란티어가 경쟁이 아닌 이유
  • 🇰🇷 한국 투자자 입장에서 포트폴리오에 넣는 법

어디까지 더 파볼까요?

User: 1번 2번 알려줘[edit | edit source]

1번 2번 알려줘

Assistant: 좋아요.[edit | edit source]

좋아요. 그럼 요청하신 ① 왜 팔란티어는 항상 논쟁적인 밸류에이션을 받는지, ② 엔비디아·MS·팔란티어가 왜 경쟁이 아닌지를 투자 관점에서 딱 이해되게 설명할게요.

###[edit | edit source]

###[edit | edit source]

  • 매출 성장률
  • 고객 수 증가
  • ARPU
  • Rule of 40

👉 이 기준으로 보면 팔란티어는:

  • 성장 느려 보이고
  • 고객 수 적고
  • “비싸 보임”
팔란티어는:[edit | edit source]
  • 고객 수 ❌ → 고객 깊이
  • 구독 ❌ → 미션 단위 계약
  • 툴 ❌ → 운영 인프라

👉 그래서 숫자가 초반엔 답답, 👉 일정 시점부터 계단식으로 튀는 구조

팔란티어의 성장은:[edit | edit source]

  • 📈 매년 꾸준히 위로 ❌
  • 🪜 계단식 성장

왜냐하면:

  • 계약 하나가 커지는 데 시간이 오래 걸리고
  • 대신 커지면 몇 배씩 커짐

👉 이 “계단이 언제 나오느냐”를 아무도 정확히 못 맞춤

그래서:

  • 낙관론자 → “지금 싸다”
  • 회의론자 → “아직 비싸다”

논쟁이 끝이 없음

여기서 시장이 갈림.[edit | edit source]

- 해지 거의 없음[edit | edit source]
  • 국가 예산에 편입
  • 위기 시 수요 증가

👉 프리미엄

- 정치 리스크[edit | edit source]
  • 성장 느림
  • ESG 논란

👉 디스카운트

👉 같은 요소가 사람에 따라 정반대 평가

- 엔비디아 → GPU = 명확[edit | edit source]

  • MS → Copilot = 명확
  • 팔란티어 → “그래서 이게 뭐야?”

👉 이해 비용이 높음 👉 그래서 항상 저평가 ↔ 고평가 오락가락

:[edit | edit source]

###[edit | edit source]

====

[ 지붕 ]  사용자 앱 / Copilot / ChatGPT ====
[  중간 ]  의사결정 · 통제 · 운영 (팔란티어 AIP)
[  바닥 ]  연산 · 인프라 · GPU (엔비디아)

👉 서로 대체 불가능

###[edit | edit source]

  • AI의 전기·엔진
  • GPU 없으면 아무것도 안 됨
- 모델 종류와 무관[edit | edit source]
  • 누가 이기든 돈 벌음
  • 가장 빠르게 성장

👉 AI 원자재

###[edit | edit source]

  • AI를 사무·업무에 쉽게 쓰게 해줌
  • Azure + OpenAI + Copilot
- 범용성[edit | edit source]
  • 생산성 중심
  • “AI를 쓰는 느낌”을 제공

👉 AI 대중화 담당

###[edit | edit source]

  • AI를 현실 의사결정에 연결
  • 통제, 승인, 책임 구조 설계
- 규제 산업 특화[edit | edit source]
  • 국가·대기업 중심
  • AI가 “말만” 하는 걸 허용 안 함

👉 AI 실행 시스템

| | | | |[edit | edit source]

| --- | --- | --- | --- | | | | | | | | | | | | | | | | | | | | |

👉 겹치는 영역이 거의 없음

실제로:[edit | edit source]

  • 팔란티어는 엔비디아 GPU 위에서
  • MS Azure를 인프라로 쓰기도 함
  • 그 위에서 AIP를 올림

👉 같은 AI 파이프라인의 다른 층

- 왜 밸류 논쟁? → SaaS 기준이 안 맞고, 성장 시점 예측이 불가[edit | edit source]

  • 왜 경쟁 아님? → AI 스택에서 맡은 역할이 다름
  • 핵심 포인트 → 팔란티어는 “AI를 어떻게 써야 하는지 정하는 회사”
:[edit | edit source]

원하시면 다음 단계로:

  • 📉 지금 시점에서 팔란티어를 볼 때 체크해야 할 지표
  • 🧠 카프가 말하는 ‘AI 전쟁’의 의미
  • 🇰🇷 한국 직장인 투자자 관점 포트폴리오 배치

어디까지 더 가볼까요?

User: 두번째 알려줘[edit | edit source]

두번째 알려줘

Assistant: 알겠습니다.[edit | edit source]

알겠습니다. 그럼 ② 카프가 말하는 ‘AI 전쟁(AI War)’이 무엇을 의미하는지를 자극적인 표현 말고, 현실·구조·투자 관점에서 차분하게 풀어드릴게요.

###[edit | edit source]

카프가 말하는 AI 전쟁은:[edit | edit source]

  • ❌ 로봇이 인간을 공격하는 미래
  • ❌ 터미네이터식 이야기

가 아니라,

- 군사 의사결정 속도[edit | edit source]
  • 정보 분석 능력
  • 공급망 통제
  • 사이버·경제·외교 전략

👉 AI를 쓰는 국가와 못 쓰는 국가의 격차가

전쟁 없이도 승패를 가른다

카프가 가장 강하게 비판하는 건 이겁니다:[edit | edit source]

###[edit | edit source]
  • 더 큰 LLM
  • 더 많은 파라미터
  • 더 좋은 벤치마크

👉 미국, 중국 모두 가능

- AI를 실제 의사결정에 연결[edit | edit source]
  • 인간 통제 하에서 실행
  • 책임·감사·법적 정합성 유지

👉 이건 아무나 못 함

이 말이 오해를 많이 받는데, 뜻은 이겁니다.[edit | edit source]

- 절차 많음[edit | edit source]
  • 규제 많음
  • 책임 구조 복잡
- 빠른 실행[edit | edit source]
  • 데이터 통합 쉬움
  • 통제 강함

👉 AI ‘실험’은 권위주의가 유리

:[edit | edit source]
  • 무제한 AI ❌
  • 통제된 AI ⭕
  • 설명 가능한 AI ⭕
  • 책임 있는 인간 결정 ⭕

👉 느리지만, 지속 가능한 방식

카프는 팔란티어를 이렇게 정의합니다:[edit | edit source]

- AI 모델 ❌ (OpenAI, Anthropic 사용 가능)[edit | edit source]
  • GPU ❌ (엔비디아 사용)
  • 클라우드 ❌ (Azure, AWS 사용)

하지만:

  • AI가 언제, 누구에게, 어떻게 쓰이는지
  • 최종 결정권자가 누구인지 를 설계

👉 전쟁의 “참모본부 시스템”

카프가 자주 드는 실제 예시:[edit | edit source]

  • 드론
  • 위성
  • 정보 분석
  • 타격 판단

이 모든 게:

  • 실시간 데이터 통합
  • AI 분석
  • 인간 승인
  • 즉각 실행

👉 AI 없이는 전쟁 자체가 불가능한 구조

그의 핵심 비판:[edit | edit source]

  • “AI는 인류의 장난감이 아니다”
  • “민주주의를 지킬 생각 없이 돈만 벌면 위험하다”
  • “국방·정부와 일하는 걸 부끄러워하지 말라”

👉 기술 기업의 ‘중립 코스프레’ 비판

###[edit | edit source]

  • 정치적 논쟁
  • 발언 리스크
  • 주가 변동성 ↑
- AI 규제 강화[edit | edit source]
  • 국가 개입 확대
  • “통제 가능한 AI” 수요 폭증

👉 팔란티어 같은 구조의 회사만 살아남을 가능성

- AI 전쟁 = 모델 싸움 ❌ / 시스템 싸움 ⭕[edit | edit source]

  • 핵심은 속도가 아니라 통제
  • 민주주의는 느리지만 더 정교한 AI가 필요
  • 팔란티어는 AI를 “결정권력”으로 만드는 회사
:[edit | edit source]

다음으로 이어서 보면 정말 도움이 되는 주제가 있어요:

  • 📊 팔란티어 실적에서 ‘진짜’ 봐야 할 숫자
  • ⚖️ AI 규제가 팔란티어에 유리한 이유
  • 🇰🇷 한국·아시아에서 팔란티어가 확장될 가능성

어디까지 더 들어가볼까요?

User: 정치적 리스크 좀더 자세히 알려줘[edit | edit source]

정치적 리스크 좀더 자세히 알려줘

Assistant: 좋은 질문이에요.[edit | edit source]

좋은 질문이에요. 팔란티어를 이해할 때 ‘정치적 리스크’는 핵심 중의 핵심이라서, 막연한 위험이 아니라 어떤 종류의 리스크가, 어떤 경로로, 언제 현실화될 수 있는지를 정확히 나눠서 설명할게요.

##[edit | edit source]

###[edit | edit source]

  • 팔란티어 매출의 큰 축은 미국 정부·국방·정보기관
  • 미국은 정권 바뀔 때: - 국방 예산 우선순위 - 감시·프라이버시 정책 - 민간 기업과 정부 협업 기조 가 달라짐
① 보수·안보 강화 기조[edit | edit source]
  • 국방·정보 예산 유지 또는 확대
  • 팔란티어 수주에 유리
  • 주가 심리 ⬆️

② 진보·시민권 강화 기조

  • 감시 기술에 대한 견제
  • 계약 심사 강화
  • 예산 집행 속도 느려짐

👉 계약 취소보다는 ‘지연’이 많음 👉 실적이 분기 단위로 출렁임

- ❌ “정권 바뀌면 끝”[edit | edit source]
  • ⭕ “실적 인식 타이밍이 꼬인다”

###[edit | edit source]

  • 성과가 좋아도
  • 예산이 없으면 계약 못 함
  • 예산은 의회 정치의 산물
- 정부 셧다운[edit | edit source]
  • 예산안 통과 지연
  • 국방·IT 예산 삭감 논쟁

👉 이때 나타나는 현상:

  • 신규 계약 연기
  • 기존 계약 갱신 지연
  • 매출은 뒤로 밀림

📌 중요

  • 기술 문제 ❌
  • 수요 문제 ❌
  • 순수 정치 문제 ⭕

이게 생각보다 큽니다.[edit | edit source]

- “정부 감시 도구”[edit | edit source]
  • “빅브라더 기술”
  • “인권 침해 기업”
- 여론이 악화되면 - 공공기관이 계약을 꺼림 - 정치인이 공격 소재로 사용[edit | edit source]
  • 특히: - 이민 - 테러 - 범죄 데이터 같은 민감 영역에서 심함

👉 계약 불가보다는 ‘정치적 부담’ 증가

팔란티어는 고객을 가린다는 점이 독특합니다.[edit | edit source]

- 민주주의 국가 우선[edit | edit source]
  • 서방 동맹 중심
  • 권위주의 국가 다수 배제
- ❌ 중국, 중동 일부, 러시아 등 대형 시장 배제[edit | edit source]
  • 시장 규모 제한
  • “기회 손실” 발생

👉 매출 최대화보다 정치·가치 정렬 선택

📌 투자자 입장:

  • 성장 상한선이 존재
  • 대신 지정학 리스크는 줄어듦

이건 숫자로 안 보이지만 큽니다.[edit | edit source]

- 정치적 발언 회피 안 함[edit | edit source]
  • 실리콘밸리·월가 공개 비판
  • 민주주의 vs 권위주의 구도 명확
- CEO 발언 = 회사 메시지[edit | edit source]
  • 일부 기관·국가에선: - “정치적으로 부담스러운 파트너”
  • 주가엔: - 발언 직후 변동성 ↑

👉 경영 리스크라기보다 ‘주가 리스크’

##[edit | edit source]

  • “정권 바뀌면 회사 망함”
  • “정치 때문에 성장 불가”

- 성장 속도가 정치에 따라 달라짐[edit | edit source]

  • 실적 인식이 불규칙
  • 주가는 이슈에 과민 반응

###[edit | edit source]

  • 분기 실적 예측 어려움
  • 정치 뉴스에 흔들림
- 단기 노이즈 ⬆️[edit | edit source]
  • 장기 계약 안정성 ⬆️
- 상업 고객 비중 증가 (민간)[edit | edit source]
  • 다국가 분산 계약
  • AIP 확산으로 “없으면 안 되는 상태” 만들기

👉 이게 카프가 민간 AIP를 밀어붙이는 이유

:[edit | edit source]

다음으로 이어서 보면 이해가 완성됩니다:

  • ⚖️ AI 규제가 왜 오히려 팔란티어에 유리한지
  • 📊 실적에서 정치 리스크를 미리 감지하는 신호
  • 🇰🇷 한국 투자자가 특히 조심해야 할 구간

어디까지 더 파볼까요?

User: 첫번째 알려줘[edit | edit source]

첫번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 ⚖️ “AI 규제가 왜 오히려 팔란티어에 유리한가”를 막연한 주장 말고, 규제 내용 → 산업 영향 → 팔란티어 포지션 순서로 아주 명확하게 설명할게요.

###[edit | edit source]

사람들이 착각하는 게 있습니다.[edit | edit source]

AI 규제는 보통 이렇게 생각하죠:

실제 규제는 이겁니다:

미국·EU·한국·영국 거의 동일합니다.[edit | edit source]
  1. 설명 가능성 (Explainability) → AI가 왜 그런 판단을 했는지 설명할 수 있어야 함
  2. 책임 주체 명확화 (Accountability) → 사고 나면 “AI가 그랬다” 금지
  3. 인간 개입 (Human-in-the-loop) → 중요한 결정은 사람이 승인
  4. 감사 로그 (Audit Trail) → 사후 조사 가능해야 함
  5. 권한·데이터 통제 (Governance) → 누가 어떤 데이터에 접근했는지 관리

📌 이게 전부 팔란티어의 기본 설계 철학

###[edit | edit source]

  • AI가: - 자동으로 판단 - 내부는 블랙박스
  • 로그는 남아도 - “왜 그 결론?” 설명 불가
  • 책임은: - 개발자? 사용자? 모델?

👉 규제와 정면 충돌

- 규제 산업(금융, 국방, 의료, 공공)에서: - AI 도입 지연 - 파일럿만 하다 중단[edit | edit source]
  • “재밌는 데모”는 많지만
  • 실제 운영엔 못 씀

👉 AI 도입 속도가 느려질수록 ‘준비된 회사’만 살아남음

###[edit | edit source]

팔란티어는:

  • 처음 고객이 - CIA - 국방부 - 정보기관 이었음

👉 규제가 아니라 ‘국가 기준’에서 시작

=====

데이터 접근 권한 → 제한 =====
AI 분석 → 제안만
최종 결정 → 인간
실행 → 승인 후
전 과정 → 로그 저장

이게:

  • EU AI Act
  • 미국 연방 가이드라인
  • 국방·금융 규제

👉 이미 충족

###[edit | edit source]

  • AI 도입 비용 ↑
  • 법무·감사·보안 비용 ↑
  • 중소 AI 스타트업 탈락
  • “빨리 만들어 팔기” 모델 붕괴
- 자본력 있음[edit | edit source]
  • 보안·감사 시스템 있음
  • 정부·대기업 경험 있음
  • 규제를 “일상”처럼 다뤄본 회사

👉 팔란티어, 몇 안 되는 수혜자

###[edit | edit source]

  • AI 도입 속도 ↓
  • 의사결정 느려짐
  • 계약 지연

👉 주가엔 불리할 수 있음

- “규제 통과한 AI 플랫폼”만 남음[edit | edit source]
  • 선택지 줄어듦
  • 팔란티어로 쏠림

👉 가격 결정력 ↑ 👉 계약 규모 ↑ 👉 해지율 ↓

일반 CEO:[edit | edit source]

카프:

이유:

  • 규제는 혼란을 제거
  • 장난감 AI를 걸러냄
  • 진짜 운영용 AI만 남김

👉 팔란티어의 철학과 완벽히 일치

###[edit | edit source]

  • “규제 = 성장 둔화” ❌
- 규제 = 경쟁자 제거[edit | edit source]
  • 규제 = 해자 강화
  • 규제 = 장기 독점력 상승

- AI 규제는 AI 금지법이 아니다[edit | edit source]

  • “통제·책임·설명”을 요구하는 법이다
  • 팔란티어는 그걸 처음부터 전제로 설계
  • 규제가 강해질수록: - 진입장벽 ↑ - 경쟁자 ↓ - 팔란티어 가치 ↑
:[edit | edit source]

다음으로 이어서 보면 퍼즐이 완성됩니다:

  • 📊 실적에서 ‘규제 수혜’가 숫자로 드러나는 지점
  • 🧩 왜 팔란티어는 시간이 갈수록 해자가 깊어지는지
  • 🇰🇷 한국·아시아에서 규제 환경이 어떤 기회가 되는지

어디까지 더 볼까요?

User: 두번째 세번째 알려줘[edit | edit source]

두번째 세번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 이어서 ② 왜 팔란티어의 해자는 시간이 갈수록 깊어지는지, ③ 한국·아시아 규제 환경에서 팔란티어가 왜 기회가 되는지를 현실적인 사례 + 투자 관점으로 설명할게요.

###[edit | edit source]

대부분 기업의 해자:[edit | edit source]

  • 특허
  • 알고리즘
  • 브랜드

팔란티어의 해자:

  • 의사결정 프로세스 자체

즉:

  • 누가 데이터를 볼 수 있는지
  • AI가 어디까지 말할 수 있는지
  • 누가 승인하는지
  • 문제가 생기면 누가 책임지는지

👉 이게 시스템으로 굳어짐

###[edit | edit source]

  • “비싸다”
  • “느리다”
  • “컨설팅 회사 같다”

👉 불만 많음

- 조직 전체가 이 시스템 기준으로 움직임[edit | edit source]
  • 매뉴얼, SOP, 교육, 감사 체계가 연결됨

👉 팔란티어 없는 운영 상상 불가

- 법무·감사·규제 대응이 팔란티어 기준[edit | edit source]
  • 다른 시스템으로 바꾸면: - 감사 불가 - 책임 구조 붕괴 - 법적 리스크

👉 기술 교체 = 조직 재설계

규제가 강화될수록:[edit | edit source]

  • “누가 결정했는지” 중요
  • “AI가 대신했다”는 변명 불가

👉 팔란티어 고객은:

  • 이미 로그·승인·감사 구조 완성

👉 경쟁사 고객은:

  • 이제 와서 구조 다시 짜야 함

📌 시간이 곧 진입장벽

- 고객 수 증가 ❌[edit | edit source]

  • ARPU 급등 ❌
  • 대신: - 계약 연장 - 계약 확장 - 해지율 극저

👉 “안 보이는 해자”라 저평가되기 쉬움

:[edit | edit source]

###[edit | edit source]

한국은:[edit | edit source]

  • 개인정보 보호법 강함
  • 망 분리·보안 규정 엄격
  • 공공·금융 규제 매우 촘촘

👉 “AI 써라” + “사고 나면 엄벌” 👉 가장 어려운 환경

- 데이터는 많음[edit | edit source]

  • AI 시범사업은 많음
  • 실제 운영은 거의 없음

이유:

  • 누가 책임질지 불명확
  • 규제기관 대응 불가
  • 감사 대비 안 됨

👉 PoC 지옥

팔란티어는:[edit | edit source]

  • 온프레미스 가능
  • 망 분리 환경 대응
  • 권한·로그·감사 기본 탑재
  • “AI는 제안만, 결정은 사람”

👉 한국 규제와 구조적으로 일치

###[edit | edit source]

| | | | | | --- | --- | --- | --- | | | | | | | | | | | | | | | |

한국·아시아에서 팔란티어형 AIP가 맞는 곳:[edit | edit source]

  • 금융 (은행·보험)
  • 반도체·제조
  • 에너지·인프라
  • 국방·공공
  • 대기업 그룹사 운영

👉 전부:

  • 사고 시 사회적 파장 큼
  • 규제 강함
  • 의사결정 복잡

- 영업 사이클 김[edit | edit source]

  • 파일럿 기간 김
  • 정치·행정 절차 김

👉 느리지만, 한 번 들어가면 오래 감

###[edit | edit source]

  • 기술이 아니라 조직·책임·규제 구조
  • 시간이 경쟁자 제거 장치로 작동
  • 규제가 강할수록 해자 깊어짐
- AI 도입 욕구 ↑[edit | edit source]
  • 규제 강도 ↑
  • 책임 회피 불가

👉 가장 어려운 시장 = 팔란티어에 가장 맞는 시장

:[edit | edit source]

다음으로 자연스럽게 이어질 주제는:

  • 📊 팔란티어 실적에서 ‘해자’가 숫자로 보이는 지점
  • 🇰🇷 한국 투자자가 팔란티어를 볼 때 특히 조심할 포인트
  • 🧠 카프 철학이 장기적으로 주주에게 유리한 이유

어디까지 더 이어갈까요?

User: 팔란티어는 자체개발 ai 모델을 쓰는지[edit | edit source]

팔란티어는 자체개발 ai 모델을 쓰는지

Assistant: 좋은 질문이에요.[edit | edit source]

좋은 질문이에요. 이건 팔란티어를 AI 회사로 오해하느냐, AI ‘플랫폼’ 회사로 이해하느냐를 가르는 핵심 포인트입니다.

:[edit | edit source]

###[edit | edit source]

  • ❌ ChatGPT 같은 범용 LLM을 자체 개발하지 않는다
  • ⭕ 필요하면 외부 모델을 사용한다

팔란티어의 공식 입장:

###[edit | edit source]

[ 데이터 ]
   ↓
[ 팔란티어 플랫폼 (Foundry / Gotham / AIP) ]
   ↓
[ 다양한 AI 모델 ]
* OpenAI
* Anthropic
* Google
* 오픈소스 (LLaMA 등)
* 고객 자체 모델
   ↓
[ 인간 승인 + 실행 ]

👉 모델은 교체 가능, 👉 플랫폼은 고정

여기서 중요한 오해가 많아요.[edit | edit source]

팔란티어가 자체 개발하는 핵심은:

- AI 결과를 어떻게 쓰는지[edit | edit source]
  • 언제 사람 승인이 필요한지
  • 위험 수준별 자동화 범위
- 누가 어떤 데이터 접근 가능?[edit | edit source]
  • AI가 어떤 정보까지 볼 수 있나?
  • 모든 행동 로그화
- 단순 질의응답 ❌[edit | edit source]
  • 실제 업무 프로세스에 연결
- 상황별로 모델 선택[edit | edit source]
  • 비용·성능·보안 기준 자동 전환
  • 특정 모델 종속 방지

👉 이게 진짜 기술 장벽

아닙니다. 좁은 의미의 모델은 만듭니다.[edit | edit source]

- 수요 예측[edit | edit source]
  • 이상 탐지
  • 최적화
  • 시계열 분석
  • 그래프 분석

📌 특징:

  • 범용 LLM ❌
  • 특정 문제 해결용 AI

👉 고객 데이터에 맞춰 맞춤 설계

###[edit | edit source]

- LLM 개발 = 천문학적 비용[edit | edit source]
  • 경쟁자: OpenAI, Google, Meta
- 정부·국방은: - 외부 API ❌ - 모델 통제 ⭕ - 온프레미스 ⭕[edit | edit source]
  • “모델을 우리가 선택하겠다”
- 특정 모델에 종속되면: - 기술 리스크 - 정치·수출 규제 리스크[edit | edit source]

👉 모델 교체 가능한 구조가 훨씬 안전

###[edit | edit source]

  • AI 기술 세대교체에 강함
  • 특정 모델 붕괴 리스크 낮음
  • 규제 강화에 유리
- “AI 대장주” 서사 약함[edit | edit source]
  • 화려한 데모 부족
  • 이해 비용 높음

- 엔비디아: 연산[edit | edit source]

  • MS: 모델 + 클라우드
  • 팔란티어: 통제 + 실행

👉 서로 필요함 👉 경쟁 관계 아님

- 팔란티어는 자체 범용 AI 모델 회사가 아니다[edit | edit source]

  • 여러 모델을 선택·통제·운영하는 플랫폼
  • 자체 개발은: - 의사결정 구조 - 보안·감사 - 업무 특화 AI
  • 모델 유행이 바뀔수록 오히려 유리
:[edit | edit source]

원하시면 다음으로:

  • 📊 팔란티어 실적에서 AIP 비중이 어떻게 커지는지
  • ⚠️ ‘모델 회사가 아니다’라는 점의 숨은 리스크
  • 🧠 카프가 왜 모델 회사들을 공개 비판하는지

어디까지 더 이어갈까요?

User: 두번째 세번째 알려줘[edit | edit source]

두번째 세번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 요청하신 대로 ② ‘모델 회사가 아니다’라는 점의 숨은 리스크, ③ 카프가 왜 모델 회사들을 공개적으로 비판하는지를 냉정하게, 투자자 관점에서 설명할게요. (좋은 얘기만 안 합니다)

###[edit | edit source]

이게 장점이자 리스크입니다.

AI 시장에서 투자자들이 좋아하는 그림:[edit | edit source]

  • “이 모델이 혁신이다”
  • “이 회사가 다음 GPT다”
  • “성능이 경쟁사보다 몇 % 더 좋다”

👉 팔란티어는 이 서사에 안 들어감

그래서 생기는 문제:

  • AI 강세장에서도
  • 주가가 같이 안 오르거나
  • 뒤늦게 반응함

📌 실제로:

  • 엔비디아, 모델 기업 급등
  • 팔란티어는 “왜 오르는지 모르겠다”는 평가 자주 받음

팔란티어는:[edit | edit source]

  • OpenAI
  • Anthropic
  • 오픈소스 모델

‘사용’합니다.

- 모델 성능 경쟁의 과실을 → 직접 독점하지 못함[edit | edit source]
  • 모델 가격 인상 시 → 비용 압박 가능
  • 특정 모델 규제/제한 시 → 대체는 가능하지만 혼란 발생

👉 플랫폼은 안정적이지만,

폭발력은 남의 손에 있음

팔란티어의 가치:[edit | edit source]

  • 감사 가능성
  • 책임 구조
  • 통제 체계

👉 이건:

  • 데모로 감동 주기 어렵고
  • 숫자로 바로 안 보이고
  • 언론 헤드라인에 안 뜸

그래서:

  • 시장이 과소평가하기 쉬움
  • 주가가 늘 “설명 싸움” 상태

일반적으로:[edit | edit source]

  • 모델 가격 ↓
  • AI 사용 폭증
  • 모델 회사·클라우드 수혜

팔란티어는:

  • 가격 하락 → 고객 비용 ↓ (좋음)
  • 하지만: - 마진 폭발 ❌ - “AI 싸졌다” 서사 ❌

👉 AI 코모디티화의 직접 수혜자는 아님

- 규제가 완화되고[edit | edit source]

  • 기업들이 “대충 써도 된다”는 분위기로 가면
  • 자동화·블랙박스 AI가 허용되면

👉 팔란티어의 ‘통제 가치’가 희석

📌 이건 낮은 확률이지만, 리스크로는 반드시 인지해야 함

:[edit | edit source]

###[edit | edit source]

:[edit | edit source]

카프에게 이건:

  • 무책임
  • 위험
  • 민주주의 파괴의 시작

###[edit | edit source]

  • 모델 회사: “우리는 도구만 제공”
  • 사용자: “AI가 그랬다”

👉 사고 나면 책임 공백

- 왜 그런 결과가 나왔는지 설명 불가[edit | edit source]
  • 학습 데이터 불명확

👉 규제·법·감사와 충돌

- 누구나[edit | edit source]
  • 아무 제한 없이
  • 고위험 의사결정에 사용

👉 권위주의 국가·범죄·전쟁 악용 가능

카프는:[edit | edit source]

  • 실제 전쟁
  • 테러
  • 금융 붕괴
  • 공급망 마비

같은 현장 문제를 다뤄온 사람입니다.

👉 “AI 장난”의 결과를 현실에서 본 사람

카프의 메시지:[edit | edit source]

  • “모델 성능 경쟁은 결국 평준화된다”
  • “남는 건 통제 구조다”
  • “국가는 모델이 아니라 시스템을 산다”

👉 그래서:

  • 모델 회사와 경쟁 ❌
  • 모델 위에 질서 설계 ⭕

###[edit | edit source]

  • CEO 발언 리스크
  • 업계 반감
  • 주가 변동성 ↑
- 규제 강화 시: - 카프의 논리 = 표준[edit | edit source]
  • “책임 있는 AI”의 대변자 포지션

👉 시간이 갈수록 옳아질 가능성

###[edit | edit source]

  • AI 서사 중심에서 소외
  • 모델 의존 구조
  • 가치 설명 어려움
  • 통제 가치가 무력화될 가능성(낮은 확률)
- 모델 회사 비난 ❌[edit | edit source]
  • 무책임한 AI 사용에 대한 경고 ⭕
  • 민주주의·국가 관점의 문제 제기
:[edit | edit source]

다음으로 이어서 가장 실전적인 주제로 갈 수 있어요:

  • 📊 지금 팔란티어를 볼 때 꼭 체크해야 할 지표 5개
  • 🧮 팔란티어 적정 밸류를 계산하는 ‘현실적 프레임’
  • 🇰🇷 한국 직장인 투자자 입장에서 비중·타이밍 전략

어디까지 같이 가볼까요?

User: 팔란티어같은 회사는 또 없나?[edit | edit source]

팔란티어같은 회사는 또 없나?

Assistant: 네![edit | edit source]

네! 팔란티어처럼 AI·데이터 분석·의사결정 플랫폼을 제공하는 회사는 몇 가지가 있고, 여기엔 완전히 같은 회사는 없지만 비슷한 역할을 하거나 경쟁·대체 가능성이 있는 기업들이 있어요. 아래에서 분야별로 구분해서 정리했습니다 👇

###[edit | edit source]

  • 영국 기반의 데이터 분석·Decision Intelligence 플랫폼 제공기업.
  • 여러 데이터 소스를 연결하여 리스크, 사기 탐지, 규제 대응 등에 AI를 활용함.
  • 금융, 통신, 보험, 정부 등 다양한 산업에 사용됨. 위키백과[2]

👉 왜 비슷? ‘여러 데이터 결합 → AI 기반 의사결정 인사이트’라는 점에서 팔란티어와 구조적 유사성이 있음.

- 미국 방산·정보 계약 기반의 데이터 분석, AI 지원 의사결정 시스템 제공. Nixsia.com[3][edit | edit source]

👉 왜 중요? 정부·국방 영역에서 데이터·AI 기반 의사결정 솔루션을 제공하는 점에서 비교 대상.

- 영국 정부·보안 부문 특화 AI 데이터 플랫폼 업체. Nixsia.com[4][edit | edit source]

👉 폴란티어처럼 복잡한 데이터 환경에서 AI 분석 및 전략적 인사이트 제공에 초점을 둠.

###[edit | edit source]

  • 빅데이터 기반 실시간 데이터 검색·모니터링·분석 플랫폼. 12397KR[5]

👉 팔란티어처럼 기업 데이터에서 인사이트를 뽑아내는 도구이지만, 보안/정부보다는 IT 로그·운영 분석 쪽이 더 강점.

- 오래된 분석·AI 소프트웨어 기업.[edit | edit source]
  • 통계·예측 분석·머신러닝 도구 제공. Pak Bloggers[6]

👉 팔란티어와 다른 철학이지만, 고급 데이터 분석 영역에서 대체 가능한 기술적 경쟁자.

- 클라우드 기반 데이터 웨어하우스 / 데이터 플랫폼.[edit | edit source]
  • 기업 내부 데이터 통합·공유·분석 기능 제공. Pak Bloggers[7]

👉 팔란티어는 의사결정 중심, Snowflake는 데이터 저장/처리 중심이지만 기업 데이터 인프라 측면에서는 고려 대상임.

- 대형 엔터프라이즈 데이터·클라우드 플랫폼 제공자.[edit | edit source]
  • AI 분석 기능도 결합. Nixsia.com[8]

👉 팔란티어처럼 데이터 환경 전체를 다루기도 하며, 방대한 고객 기반을 가진 전통적 대기업.

###[edit | edit source]

  • 보안 데이터 분석 중심 플랫폼.
  • 기업/정부에서 비정형 데이터를 분석하여 위협 감지 지원. 위키백과[9]

👉 보안·위협 분석 쪽 특화된 데이터 플랫폼으로 팔란티어의 일부 기능과 겹침.

- 팔란티어 출신 인력 포함 신생 기업들이 비슷한 ‘AI + 데이터 + 고객 맞춤형 솔루션’ 지향 플랫폼을 개발 중. Investors.com[10][edit | edit source]

👉 아직 초기 단계지만, 의사결정/AI 워크플로우 플랫폼의 새로운 경쟁자로 떠오름.

###[edit | edit source]

  • 국방·정부 AI·데이터 프로젝트 수주·통합 서비스. TheStreet[11]
- 미국 정부 대상 데이터·AI 시스템 통합 서비스 제공. TheStreet[12][edit | edit source]

👉 이들은 자체 플랫폼이라기보다 “팔란티어 같은 시스템 도입/운영 컨설팅 경쟁자” 성격이 강함.

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | | | | | | | | | | | | | |

✔ 정부 및 국방 중심 심층 데이터 + AI 의사결정 플랫폼[edit | edit source]

✔ 통제·감사·책임구조 내재화 ✔ 온프레미스 및 고보안 환경 대응

→ 이런 구조를 전부 동시에 갖춘 기업은 아직 거의 없음. RData[13]

✅ 팔란티어와 격전지: 정부 AI, 보안, 엔터프라이즈 데이터 플랫폼[edit | edit source]

❌ 팔란티어와 동일한 비즈니스 모델: 거의 없음

➡️ 실제로 가장 큰 경쟁은 ‘대형 IT/AI 플랫폼 + 전문 서비스 결합’ 형태 예: Salesforce, AWS 파트너 네트워크, Microsoft, Oracle 등 마켓워치[14]

:[edit | edit source]

원하면 다음으로: 📊 이 경쟁사들 중 투자 관점에서 가장 유망한 기업 비교 📈 팔란티어 경쟁사별 성장/리스크 포인트 보시겠어요?

User: 팔란티어를 대체할 회사가 당분간 안나온다면 독점적인 지위가 될거고 대부분의 정부 국가 사회망에 팔란티어가 사용될 가능성이 있는데 이런 독점체제에서의 위험성은 무엇?[edit | edit source]

팔란티어를 대체할 회사가 당분간 안나온다면 독점적인 지위가 될거고 대부분의 정부 국가 사회망에 팔란티어가 사용될 가능성이 있는데 이런 독점체제에서의 위험성은 무엇?

Assistant: 아주 핵심을 찌르는 질문입니다.[edit | edit source]

아주 핵심을 찌르는 질문입니다. 이건 투자 질문이면서 동시에 문명·권력 구조 질문이에요. 차분하게, 감정 빼고 “팔란티어가 사실상 대체 불가 독점이 될 경우”의 위험성을 층별로 정리하겠습니다.

질문은 이 가정 위에 있습니다:[edit | edit source]

→ 이건 현실성이 있는 시나리오입니다.

###[edit | edit source]

팔란티어는:[edit | edit source]

  • “결정을 대신하지 않는다”고 말하지만
  • 결정이 나오도록 ‘틀’을 만든다

예:

  • 어떤 데이터가 중요하게 보이는가
  • 어떤 경고가 먼저 뜨는가
  • 어떤 선택지가 ‘합리적’으로 보이는가

👉 의사결정의 프레임을 장악

이건:

  • 법으로 명시되지 않음
  • 선거로 통제되지 않음
  • 교체도 어려움

📌 역사적으로 가장 위험한 권력 형태입니다.

###[edit | edit source]

- 정부: “AI 시스템이 추천한 결정입니다”[edit | edit source]

  • 공무원: “팔란티어 기반 분석 결과입니다”
  • 시민: ❓

👉 책임 주체가 흐려짐

팔란티어가 말하는 “감사가능성”도:

  • 기술적으로 이해 가능한 사람만 가능
  • 일반 시민에게는 사실상 블랙박스

- 결정의 정치적 책임이 증발[edit | edit source]

  • 실패 시 책임 전가 구조 고착

###[edit | edit source]

- 소프트웨어 버그[edit | edit source]

  • 데이터 모델링 오류
  • 업데이트 결함
  • 내부 인적 사고

👉 국가 단위 동시 오류 가능

예:

  • 여러 나라의 - 국경 통제 - 금융 이상 탐지 - 군사 판단 - 공급망 관리

가 동시에 왜곡될 수 있음.

📌 이건 이론이 아니라 항공기·금융 시스템에서 이미 증명된 위험입니다.

###[edit | edit source]

팔란티어가 제공하는 것:

  • 데이터는 “국가 소유”
  • 하지만: - 데이터 구조 - 권한 체계 - 분석 논리 - 운영 노하우

는 팔란티어 의존

👉 사실상:

  • 디지털 행정 주권의 외주화

:[edit | edit source]

답이 NO면:

  • 그 순간 이미 종속

###[edit | edit source]

설령 회사가 중립을 지켜도:

  • 미국 법
  • 미국 제재
  • 미국 외교 압력

의 영향을 받을 수밖에 없음.

📌 최악의 경우:

  • 기술 접근 제한
  • 업데이트 중단
  • 특정 기능 통제

👉 경제 제재보다 훨씬 정밀한 무기

독점은:[edit | edit source]

  • 속도를 늦춘다
  • 가격을 올린다
  • 고객 맞춤을 줄인다

팔란티어는 지금은:

  • “사명 중심”
  • “장기주의”

이지만,

📌 경영진·주주 구성 바뀌면?

  • 방산 독점기업의 역사와 동일한 길 가능

###[edit | edit source]

  • 누가 “위험 인물”인가
  • 어떤 행동이 “이상 징후”인가
  • 무엇이 “사회적 리스크”인가

👉 이 기준이:

  • 입법이 아니라
  • 코드와 설정으로 정해짐

그리고 그 설계자는:

  • 선출되지 않음
  • 교체 어려움

📌 이건 민주주의 국가에서도 권위주의적 결과를 낳을 수 있음

👉 아닙니다. 오히려 정확히 알고 있음[edit | edit source]

그래서:

  • “AI는 민주주의의 도구가 될 수도, 파괴자가 될 수도 있다”
  • “우리는 결정을 자동화하지 않는다”
  • “인간이 책임지게 설계한다”

라고 계속 강조함.

📌 하지만:

###[edit | edit source]

  • 독점적 지위 = 수익·계약 안정성
  • 진입장벽 극대화
- 규제 폭탄[edit | edit source]
  • 분할 압력
  • 국가별 자체 대안 개발 가속
  • 정치적 표적화

👉 ‘너무 중요해진 회사’의 숙명

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | | | | | | | | | | |

:[edit | edit source]

원하시면 다음 단계로:

  • 🧮 이런 리스크를 시장은 어떻게 가격에 반영하는가
  • 🏛 정부들은 이미 어떤 ‘견제 장치’를 고민 중인가
  • 📊 투자자로서 이 독점 리스크를 어떻게 관리할 것인가

어디까지 같이 파볼까요?

User: 두번째 알려줘[edit | edit source]

두번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 ② 정부들은 이미 어떤 ‘견제 장치’를 고민·설계하고 있는가를 현실적으로, 이미 진행 중인 흐름 중심으로 설명하겠습니다. (이건 추상 이론이 아니라 실제 관료·국방·EU가 움직이는 방향입니다)

##[edit | edit source]

###[edit | edit source]

- 하나의 국가 시스템에 - 2~3개 이상 플랫폼/엔진 병행 사용을 법·계약으로 강제[edit | edit source]

  • 핵심 기능 분산: - 데이터 통합 A - 분석 B - 시각화 C

👉 팔란티어 단독 구조 차단

- EU 국방·정보 프로젝트[edit | edit source]

  • NATO 데이터 프로그램
  • 영국 정부 조달 기준

📌 명시적 표현:

- 독점 리스크 ↓[edit | edit source]

  • 협상력 유지
  • 기술 종속 방지

❌ 단점:

  • 비용 증가
  • 속도 저하
  • 효율 감소

👉 그래도 정부는 이걸 선택

###[edit | edit source]

- AI 추천 결과에 대해: - 왜 이 판단이 나왔는지 - 어떤 데이터가 영향을 미쳤는지 - 인간이 개입할 수 있었는지[edit | edit source]

를 법적으로 기록·제출 가능해야 함.

- EU AI Act[edit | edit source]

  • 미국 행정명령(EO on AI)
  • 국방 AI 윤리 가이드라인

👉 설명 불가 = 사용 불가

:[edit | edit source]

###[edit | edit source]

- 데이터: - 국가 내부 저장[edit | edit source]

  • 모델: - 자체 or 오픈소스
  • 플랫폼: - 국산 또는 준국산화

👉 완전 대체는 아니어도

‘비상시 탈출구’ 확보

- 프랑스[edit | edit source]

  • 독일
  • 북유럽
  • 일본

📌 특징:

  • 성능은 팔란티어보다 낮아도
  • 주권 확보가 목적

###[edit | edit source]

- 소스 접근 권한[edit | edit source]

  • 데이터 스키마 공개
  • 정부 내부 인력 동시 운영
  • 운영 노하우 이전 조항
  • 계약 종료 후 데이터·설계 이전 의무

👉 “나가도 시스템은 남는다”

- 기술보다 계약이 오래감[edit | edit source]

  • 정치 바뀌어도 유지됨

###[edit | edit source]

- 군사 타격[edit | edit source]

  • 체포·감시
  • 금융 제재
  • 출입국 통제
  • 사회보장 판단

👉 AI 단독 판단 불가

- 팔란티어의 영향력 제한[edit | edit source]

  • 책임 소재 명확화

📌 동시에:

  • 시스템 속도 ↓
  • 자동화 수익성 ↓

###[edit | edit source]

정부들은:

  • 팔란티어가 - 너무 강력해지는 것도 - 갑자기 사라지는 것도 - 정치 압력 받는 것도

모두 두려워함.

그래서:

  • 내부 인력 양성
  • 자체 분석팀 병행
  • 핵심 로직 분리

👉 완전 의존 금지

###[edit | edit source]

1. 팔란티어가 사실상 표준이 됨[edit | edit source]

  1. 정부·국제기구가: - 인터페이스 표준화 - 데이터 구조 공개 요구
  2. 기능별 모듈 분해
  3. 경쟁사 진입 가능

👉 MS Windows → Linux 서버 시장과 유사

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | | | | | | | | | | |

:[edit | edit source]

- ✔ 독점이 바로 해체되지는 않음[edit | edit source]

  • ❌ 하지만: - 마진 상한 존재 - 성장 속도 제한 - 정치 리스크 상존

👉 “유틸리티화된 독점” 가능성

다음으로 이어서 가장 의미 있는 주제는 셋 중 하나입니다:

1️⃣ 이 견제 장치가 실제로 주가·밸류에 어떻게 반영되는가 2️⃣ 팔란티어는 이런 견제를 알고 어떻게 구조적으로 대비 중인가 3️⃣ 투자자로서 ‘독점 + 규제’ 회사에 돈을 넣을 때의 전략

어디까지 파볼까요?

User: 두번째 알려줘[edit | edit source]

두번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 ② 팔란티어는 이런 ‘정부 견제’를 이미 알고 있고, 구조적으로 어떻게 대비하고 있는가를 겉으로 보이는 PR 말고, 실제 제품·계약·조직 구조 기준으로 설명하겠습니다.

###[edit | edit source]

이게 역설적인 전략입니다.

###[edit | edit source]

- Foundry / Gotham / AIP[edit | edit source]

  • 각각: - 데이터 통합 - 분석 - 의사결정 보조

가 강결합이 아니라 느슨한 결합

👉 정부 요구:

  • “이 기능만 쓰겠다”
  • “이 모듈은 빼겠다”

가능.

📌 의미:

  • 단일 벤더 강제 회피
  • “팔란티어가 전부 먹는다” 인상 완화

###[edit | edit source]

  • 특정 모델 종속 ❌
  • 오픈소스 + 상용 모델 병행
  • 고객이 직접 모델 교체 가능

👉 정부 입장에서:

  • “정권 바뀌어도 유지 가능”
  • “미국 모델 차단 시도 대비 가능”

📌 이게 없으면 EU·일본 계약 자체가 불가능

###[edit | edit source]

팔란티어는:

  • 완전 오프라인
  • 내부 망 전용
  • 클라우드 미사용

까지 지원.

👉 정부가 원하는:

  • 데이터 주권
  • 외국 압력 차단

📌 이건:

  • AWS, MS도 싫어하는 구조
  • 팔란티어만 제대로 해주는 영역

###[edit | edit source]

팔란티어 계약 특징:

  • 데이터 스키마 고객 소유
  • 분석 로직 문서화
  • 일정 수준의 내부 인력 이관
  • 종료 시 시스템 인수 가능성

👉 단기 매출은 손해 👉 장기 신뢰는 획득

###[edit | edit source]

  • AI는: - 추천만 가능 - 실행 버튼은 인간
  • 누가 승인했는지
  • 언제 어떤 정보 보고 판단했는지

모두 로그화.

👉 정부가 제일 좋아하는 구조 👉 독점 비판 회피

###[edit | edit source]

  • 전직 정보기관
  • 국방부
  • 공공기관

으로 인력 이동 허용·장려.

👉 기술이 국가 내부에 남음 👉 팔란티어 = 협력자 이미지

###[edit | edit source]

  • “AI는 위험하다”
  • “무책임한 모델 경쟁은 문제다”
  • “통제 없는 AI는 민주주의 파괴”

👉 단기 주가에는 마이너스 👉 장기적으로는 규제 설계 테이블에 초대

📌 규제의 적 ❌ 📌 규제의 공동 설계자 ⭕

###[edit | edit source]

  • 전기회사
  • 통신망
  • 군수 시스템

과 같은 위치.

👉 해체 대상 ❌ 👉 관리 대상 ⭕

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | |

:[edit | edit source]

- ❌ “FAANG식 폭발 성장” 기대하면 실망[edit | edit source]

  • ✔ “국가 인프라형 복리 성장”으로 보면 합리적

👉 느리지만 죽지 않는 회사

다음으로 이어서 가장 날카로운 주제는 셋 중 하나입니다:

1️⃣ 이 구조에서 팔란티어의 ‘진짜 해자’는 무엇인가 2️⃣ 규제가 강화될수록 실적은 어떻게 변할까 (시나리오별) 3️⃣ 개인 투자자가 팔란티어를 살 때의 ‘적정 비중’ 사고법

어디까지 같이 가볼까요?

User: 1번 2번 알려줘[edit | edit source]

1번 2번 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 요청하신 대로 ① 팔란티어의 ‘진짜 해자’, ② 규제 강화 시 실적이 어떻게 변하는지를 겉보기에 좋은 말 제거하고, 구조·숫자·시나리오 중심으로 설명하겠습니다.

###[edit | edit source]

이건 따라 하기가 거의 불가능합니다.

많은 사람이 착각합니다:[edit | edit source]

  • “팔란티어는 기술력이 압도적이다”

❌ 절반만 맞음.

  • 데이터 통합 기술 → 다른 회사도 가능
  • AI 모델 연동 → 누구나 가능
  • UI/시각화 → 경쟁사 존재

👉 기술 요소 하나하나는 복제 가능

팔란티어는:[edit | edit source]

  • 테러 방지 실패
  • 작전 판단 오류
  • 금융 시스템 오탐
  • 공급망 붕괴

같은 치명적 실패 상황을 실제로 겪음.

👉 그리고:

  • 어떻게 로그를 남겨야 하는지
  • 어디서 인간이 개입해야 하는지
  • 법적 책임이 어떻게 이어지는지

를 몸으로 학습

📌 이건:

  • 데모로 배우는 게 아님
  • 스타트업이 몇 년 만에 못 따라옴

팔란티어 제품의 기본값:[edit | edit source]

  • 감사 로그 ON
  • 권한 세분화 ON
  • 결정 추적 ON

👉 규제가 오면:

  • 새로 고칠 필요 ❌
  • 이미 있음 ⭕

📌 경쟁사는:

  • 규제 오면 개발부터 다시 해야 함

팔란티어 도입 비용은:[edit | edit source]

  • 소프트웨어 + 컨설팅
  • 조직 개편
  • 업무 프로세스 재설계

👉 돈보다 더 무서운 건:

  • 조직의 사고방식이 바뀜

📌 그래서:

  • 교체 비용 = 기술 + 조직 + 정치 비용

역설적이지만 핵심입니다.[edit | edit source]

  • 탈출 조항 허용
  • 데이터 구조 공개
  • 모델 교체 허용

👉 정부 입장:

  • “이 회사는 우리를 묶지 않는다”

결과:

  • 심리적 락인 발생

📌 가장 강한 락인은 “갇혔다”는 느낌이 없는 상태

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | | | | |

👉 시간이 쌓일수록 강해지는 해자

여기서 가장 중요한 포인트:[edit | edit source]

###[edit | edit source]

  • 기업들이: - 빠른 자동화 - 블랙박스 AI 허용
  • 규제 느슨
- 모델 회사, SaaS 폭발 성장[edit | edit source]
  • 팔란티어: - 상대적 성장 둔화 - “비싸고 느린 회사” 평가

📉 주가:

  • AI 테마 대비 언더퍼폼

###[edit | edit source]

  • 설명 가능성 요구
  • Human-in-the-loop 의무
  • 책임 주체 명확화
- 경쟁사 진입 장벽 ↑[edit | edit source]
  • 팔란티어: - 계약 지속 기간 ↑ - 갱신률 ↑ - 정부 계약 확대

📈 실적:

  • 매출 성장률: 중고속 (20% 안팎)
  • 마진: 완만한 개선
  • 현금흐름 안정화

👉 ‘유틸리티형 성장’

###[edit | edit source]

  • 소버린 AI 강제
  • 국산 플랫폼 우대
  • 외산 기술 통제
- 신규 계약 ↓[edit | edit source]
  • 기존 계약 유지
  • 커스터마이징 증가

📉 실적:

  • 성장률 둔화 (한 자릿수)
  • 마진 압박

👉 하지만:

  • 완전 퇴출은 거의 불가능

| | | | |[edit | edit source]

| --- | --- | --- | --- | | | | | | | | | | | | | | | |

###[edit | edit source]

  • ❌ “AI 규제 수혜주 = 폭등주”
  • ✔ “AI 규제 보험주”

👉 시장이 불안할수록 👉 정부가 고민할수록 👉 살아남는 확률이 올라가는 구조

:[edit | edit source]

다음으로 가장 자연스럽게 이어질 질문은 이것입니다:

  • 📊 그럼 이런 회사의 적정 PER/PS는 얼마가 합리적인가
  • 🇰🇷 한국 투자자가 팔란티어를 포트폴리오에 넣는 법
  • 🧮 팔란티어가 무너질 수 있는 ‘진짜 위험’ 3가지

어디까지 같이 가볼까요?

User: 세번째 알려줘[edit | edit source]

세번째 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 마지막으로 ③ 팔란티어가 무너질 수 있는 ‘진짜 위험 3가지’를 과장 없이, 그러나 가장 불편한 지점만 짚겠습니다. (이건 찬성론자도 반드시 알고 있어야 하는 부분입니다)

##[edit | edit source]

##[edit | edit source]

많은 사람들이 이렇게 생각합니다:[edit | edit source]

❌ 반만 맞습니다.

규제는:[edit | edit source]

  • 특정 기업을 밀어주기 위해 생기지 않습니다
  • 권력을 분산시키기 위해 생깁니다

그래서 실제 규제는 종종:

  • 다중 벤더 의무
  • 오픈 표준 강제
  • 기능 분해 요구
  • 데이터·모델 분리

로 이어집니다.

👉 이건:

  • “팔란티어만 쓰세요”가 아니라
  • “팔란티어도 쪼개세요”입니다

- 팔란티어가 만든 구조가[edit | edit source]

  • 국제 표준이 되고
  • 그 표준을 근거로
  • 경쟁사들이 기능별로 침투

👉 MS가 Windows로 서버 시장을 잃은 구조와 유사

:[edit | edit source]

##[edit | edit source]

##[edit | edit source]

국가는 궁극적으로 이렇게 생각합니다:

- 팔란티어 도입 (초기)[edit | edit source]

  • 운영 안정화
  • 내부 인력 양성
  • 부분 모듈 대체
  • 핵심 기능 국산화

👉 완전 퇴출은 아니지만 👉 성장 스토리는 꺾임

- 기존 계약: 유지됨[edit | edit source]

  • 신규 계약: 줄어듦
  • 업셀링: 제한됨

📉 숫자로 보면:

  • 매출 절대 감소 ❌
  • 성장률 구조적 하락 ⭕

📌 투자자에게는:

:[edit | edit source]

##[edit | edit source]

##[edit | edit source]
  • 이념적
  • 정치적
  • 사명 중심
  • CEO 영향력 절대적

👉 지금은 장점입니다.

###[edit | edit source]

  • 창업자 영향력 약화
  • 세대 교체
  • 기관 투자자 압박
  • “왜 이렇게 느리냐”는 불만

👉 선택의 순간:

  • 원칙 유지 → 성장 둔화
  • 성장 가속 → 정체성 훼손

📌 이 갈등은:

  • 외부에서 잘 안 보이지만
  • 회사 내부에서는 가장 파괴적

- 보잉[edit | edit source]

  • GE
  • 일부 방산 기업들

👉 모두:

  • “사명 → 숫자” 전환 시점에서 균열 발생
:[edit | edit source]

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | | | | | |

:[edit | edit source]

그래서:

  • 단기 트레이딩 ❌
  • “AI 엔비디아 대체” 기대 ❌
  • 긴 호흡 + 비중 관리 ⭕

:[edit | edit source]

이제 남은 질문은 거의 이것뿐입니다:

  • 그럼에도 불구하고 왜 사람들이 팔란티어를 사는가
  • 한국 개인 투자자 기준으로 ‘적정 비중’은 얼마인가
  • 지금 가격에서 사도 되는가, 기다려야 하는가

어디까지 같이 정리해볼까요?

User: 팔란티어에게 리스크가 될수도 있는데 왜 내부직원을 고객사로 이직하는걸 막지 않고 오히려 자유롭게 두는거지?[edit | edit source]

팔란티어에게 리스크가 될수도 있는데 왜 내부직원을 고객사로 이직하는걸 막지 않고 오히려 자유롭게 두는거지?

Assistant: 아주 날카로운 질문입니다.[edit | edit source]

아주 날카로운 질문입니다. 이건 팔란티어를 ‘일반 IT 회사’로 보면 절대 이해가 안 되는 부분이고, 국가·권력·장기 생존 관점으로 봐야 설명이 됩니다.

결론부터 말하면:

아래에서 단계별로 풀겠습니다.

먼저, 일반 회사 기준으로 보면 이건 미친 선택입니다.[edit | edit source]

  • 기술 유출
  • 노하우 이전
  • 고객의 내부화 가속
  • 협상력 약화
  • 인재 공백

👉 보통 회사는 무조건 막습니다.

###[edit | edit source]

이건 역설이지만, 국가 상대 비즈니스에서는 사실입니다.

##[edit | edit source]

정부·군·정보기관의 본능:

팔란티어가:

  • 인력 이동을 막으면 → 경계
  • 인력 이동을 허용하면 → 신뢰

👉 “저 회사는 우리를 지배하려 하지 않는다”

이 인식이 결정적입니다.

##[edit | edit source]

팔란티어 출신이 고객사가 되면:

  • 시스템을 이미 이해
  • 도입 필요성 인식
  • 대체 비용 체감
  • 내부 정치 구조 파악

👉 그 사람은:

  • 공식 직원 ❌
  • 가장 강력한 내부 옹호자 ⭕

📌 이건 돈으로 못 삽니다.

##[edit | edit source]

팔란티어 출신이:

  • “우리가 직접 만들어보자” 시도

결과:

  • 비용 폭발
  • 일정 지연
  • 정치 갈등
  • 감사·책임 문제 발생

👉 결국:

📌 이건 이론보다 훨씬 강력한 락인.

##[edit | edit source]

만약:

  • 핵심 기술을 꽉 쥐고
  • 인력 이동 막고
  • 시스템 블랙박스화하면

👉 언젠가:

라는 프레임이 씌워짐.

팔란티어는 그걸 미리 제거합니다.

##[edit | edit source]

팔란티어가 진짜 두려워하는 건:

  • 기술 유출 ❌
  • 매출 하락 ❌

👉 의회·여론·정권으로부터의 퇴출

인력 개방은:

  • “공공 파트너” 이미지 강화
  • 적대적 조사 리스크 감소

팔란티어 내부 논리는 이렇습니다:[edit | edit source]

  • 단기 손해: - 인력 공백 - 프로젝트 비용 증가
  • 장기 이익: - 계약 지속성 - 갱신률 - 정치적 생존

👉 명확한 손익 계산

팔란티어가 이 전략을 쓸 수 있는 이유:[edit | edit source]

  1. 고객사가 스스로 만들기 어렵다
  2. 시스템이 복잡하고 깊다
  3. 조직 변화까지 요구된다
  4. 국가 단위 책임이 따른다

👉 “사람 몇 명 나간다고 복제 안 된다”는 자신감

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | |

:[edit | edit source]

- ❌ 이 전략은 단기 실적에는 독이다[edit | edit source]

  • ✔ 장기 생존에는 최적

👉 그래서:

  • 분기 실적 변동성 큼
  • 계약 유지율은 매우 높음

:[edit | edit source]

이제 질문이 여기까지 왔다는 건, 사실상 “이 회사는 좋은가?”가 아니라

“이 회사는 언제·어떻게 돈이 되는가?” 단계입니다.

다음으로 가장 자연스러운 질문은:

  • 📊 그럼에도 불구하고 팔란티어의 ‘돈 버는 순간’은 언제인가
  • 🧮 이 전략이 재무제표에 어떻게 나타나는가
  • 🇰🇷 한국 투자자 기준으로 이 회사를 대하는 태도

어디까지 같이 정리해볼까요?

User: 고객을 서구권으로 제한하는 이유?[edit | edit source]

고객을 서구권으로 제한하는 이유?

Assistant: 이 질문은 팔란티어를 이해하는 거의 마지막 관문입니다.[edit | edit source]

이 질문은 팔란티어를 이해하는 거의 마지막 관문입니다. “왜 돈 되는 시장을 스스로 버리나?”라는 의문이죠. 결론부터 말하면:

아래에서 단계적으로 설명하겠습니다.

##[edit | edit source]

팔란티어는 스스로를 이렇게 정의합니다:

이건 이념 선언이 아니라 사업 포지셔닝입니다.

- 미국 국방·정보·정부 계약은 - 수십 년 - 자동 갱신 - 경기 무관[edit | edit source]
  • 대신 조건: - 신뢰 100% - 동맹 일관성

👉 중립은 허용되지 않음.

📌 팔란티어가:

  • 중국
  • 러시아
  • 중동 권위주의 국가

에 팔면, 미국 핵심 계약은 즉시 위험해집니다.

팔란티어 제품은:[edit | edit source]

  • 명백한 듀얼유스(민군 겸용)
  • 사실상 전략무기 취급

- ITAR / EAR 규제[edit | edit source]

  • 미국 의회의 청문회
  • 국방부·정보기관 계약 재검토

👉 이건 “벌금” 문제가 아니라 👉 존재 문제

팔란티어는 이미:[edit | edit source]

  • 시민단체
  • 언론
  • 학계

로부터 “감시 기술 회사”라는 비판을 받습니다.

- 권위주의 국가[edit | edit source]

  • 인권 침해 국가

에 공급한다면?

👉 회사는 즉시:

로 규정됨.

📌 그러면:

  • EU 조달 시장 차단
  • ESG 투자 배제
  • 정치적 공격 표적

서구권은:[edit | edit source]

  • 규제 철학이 비슷
  • AI 윤리 기준 유사
  • 법체계 예측 가능

👉 제품을:

  • 하나의 철학으로 설계 가능

비서구권까지 가면:

  • 맞춤 개발 폭증
  • 내부 윤리 충돌
  • 조직 분열

카프의 인식:[edit | edit source]

  • 선택하지 않아도
  • 선택된 것으로 간주됨

👉 차라리:

  • 명확히 편을 정하고
  • 그 안에서 깊게 파는 전략

비서구권 시장:[edit | edit source]

  • 단기 계약
  • 정치 리스크 큼
  • 갑작스러운 계약 파기
  • 지급 불확실성

서구권:

  • 계약 규모 큼
  • 법적 보호 강함
  • 장기 반복 매출

👉 NPV 기준으로 서구권이 더 큼

팔란티어 직원 상당수:[edit | edit source]

  • 국가안보 의식 강함
  • 정치적 신념 분명

👉 인권 침해 국가와 거래 시:

  • 내부 반발
  • 핵심 인재 이탈
  • 조직 붕괴

📌 실제 실리콘밸리 사례 다수 존재

:[edit | edit source]

  • 록히드마틴
  • 레이시온
  • 노스럽 그러먼

의 AI·데이터 버전

👉 이 포지션은:

  • 글로벌 확장 ❌
  • 진영 내 독점 ⭕

:[edit | edit source]

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | |

👉 팔란티어는 ‘큰 회사’보다 ‘남는 회사’를 택함

:[edit | edit source]

다음으로 이어서 가장 의미 있는 질문은 아마 이것일 겁니다:

  • 그럼 이 선택이 장기 매출 상한을 얼마나 제한하는가
  • 중국·비서구권이 자체 대안을 만들면 어떤 일이 벌어질까
  • 이 전략이 주가 변동성에 어떻게 반영되는가

어디까지 같이 가볼까요?

User: 두번째[edit | edit source]

두번째

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 ② 중국·비서구권이 자체 대안을 만들면 무슨 일이 벌어지는가를 현실적인 시나리오 + 팔란티어에 미치는 영향 중심으로 정리하겠습니다.

:[edit | edit source]

👉 부분적으로 YES, 구조적으로는 NO 입니다. 왜 그런지 단계별로 보죠.

##[edit | edit source]

- 국가 주도 AI 플랫폼[edit | edit source]
  • 공공 데이터 전면 통합
  • 감시·치안·행정 자동화

👉 기술적 성능만 보면 팔란티어 ‘유사’ 수준은 이미 존재

- 중국/러시아 기술 수입[edit | edit source]
  • 자체 커스터마이징
  • 규제·윤리 제약 거의 없음

📌 그래서:

###[edit | edit source]

- 민주주의 국가에서[edit | edit source]

  • 법·감사·책임이 있는 상태로
  • 고위험 의사결정을 지원

- 국가 권력 강화[edit | edit source]

  • 빠른 통제
  • 효율 최우선
  • 책임·설명 부차적

👉 목표 함수 자체가 다름

##[edit | edit source]

- 서구권: - 설명 가능 - 책임 구조 - Human-in-the-loop[edit | edit source]
  • 비서구권: - 전면 자동화 - 중앙집권 - 블랙박스 허용

👉 AI 냉전 구도

📌 이 구도에서:

  • 팔란티어는 “서구 표준”으로 고착될 가능성 ↑

##[edit | edit source]

중국식 시스템이 발전할수록:

  • EU, NATO, Five Eyes는
  • 더 강하게 요구함:

👉 결과:

  • 팔란티어 같은 회사에
  • 정치적 정당성 강화

📌 아이러니:

##[edit | edit source]

이건 분명한 단점입니다.

  • 글로벌 TAM 제한
  • 신흥국 대형 계약 불가
  • 성장률 상한 존재

👉 팔란티어는:

  • 세계 회사 ❌
  • 진영 회사 ⭕

📉 그래서:

  • 엔비디아 같은 멀티플은 기대 불가

비서구권 대안이 존재하면:[edit | edit source]

  • “미국이 AI로 세계 지배” 프레임 약화
  • 팔란티어 = 진영 선택의 결과
  • 강제 확산이 아님

👉 정치적 공격 리스크 ↓

###[edit | edit source]

  • 비서구권 시스템이
  • 서구권에도 침투
  • “속도·효율이 더 낫다”는 여론 형성

👉 이건 팔란티어에 진짜 위협

📌 하지만:

  • 이 경우는 기술 문제가 아니라
  • 서구 민주주의의 후퇴가 전제

| | |[edit | edit source]

| --- | --- | | | | | | | | | | | | |

👉 팔란티어는 ‘세계 챔피언’이 아니라

‘서구 진영 챔피언’이 될 확률이 높다

:[edit | edit source]

:[edit | edit source]

이제 정말 마지막 단계 질문으로 자연스럽게 이어집니다:

  • 그럼 이런 회사의 주식은 ‘언제 사는 게 맞는가’
  • 이 구조에서 팔란티어의 장기 수익 모델은 어디서 나오는가
  • 한국 투자자 입장에서 이 회사는 필수인가, 옵션인가

어디까지 같이 정리해볼까요?

User: 사회문제해결을 위해선 민주주의로는 불가능하고 소수의 엘리트가 결정권을 가져야한다는 입장에 대해서 더 알려줘[edit | edit source]

사회문제해결을 위해선 민주주의로는 불가능하고 소수의 엘리트가 결정권을 가져야한다는 입장에 대해서 더 알려줘

Assistant: 이 입장은 단순한 “권위주의 옹호”가 아니라,[edit | edit source]

이 입장은 단순한 “권위주의 옹호”가 아니라, 현대 복잡 사회에서 민주주의의 한계를 지적하는 엘리트주의적 문제의식입니다. 차분하게, 논리 → 철학적 뿌리 → 실제 주장 → 강점과 치명적 한계 순서로 설명하겠습니다.

:[edit | edit source]

핵심 키워드:

  • 복잡성
  • 전문성
  • 장기 최적화
  • 비대중적 결정

###[edit | edit source]

현대 문제는:

  • 기후 변화
  • 재정·통화 정책
  • AI 규제
  • 인프라 설계
  • 전염병 대응

👉 일반 유권자가 이해하기엔 정보 차원이 다름

📌 민주주의는 “이해”가 아니라 “선호”를 투표로 모음

선거 주기 = 4~5년[edit | edit source]

사회 문제 해결 = 20~50년

👉 정치인은:

  • 인기 없는 정책 회피
  • 미래 비용을 현재에 전가

📌 예:

  • 연금 개혁
  • 증세
  • 환경 규제
  • 구조조정
대중은:[edit | edit source]
  • 손실에 과민
  • 복잡한 트레이드오프 싫어함
  • 단순 서사 선호

👉 엘리트주의자 관점:

###[edit | edit source]

  • 다수 = 동굴의 그림자만 봄
  • 소수 철학자만 실재를 이해

📌 현대 엘리트주의의 원형

- 과학자[edit | edit source]
  • 엔지니어
  • 관료 엘리트

👉 정책을:

  • 정치가 아니라
  • 최적화 문제로 인식

📌 현대 중앙은행, 규제기관의 논리

:[edit | edit source]

👉 대중은:

  • 통치자가 될 수 없고
  • 통치자를 교체할 뿐

이 입장은 요즘 이렇게 진화합니다:[edit | edit source]

특징:

  • 데이터 기반 정책
  • 시뮬레이션
  • 최적화
  • 인간 판단 최소화

📌 팔란티어, 중국식 거버넌스, 실리콘밸리 테크 엘리트의 문제의식과 연결됨

###[edit | edit source]

  • 중앙은행 독립
  • 전염병 방역 초기 통제
  • 대규모 인프라 계획
  • 전쟁 시 지휘체계

👉 속도·일관성·결단력

- 모든 사람이 참여하면[edit | edit source]
  • 결정 속도 ↓
  • 책임 소재 불분명

###[edit | edit source]

  • 정보 편향
  • 집단 사고
  • 계급 이익 보호

📌 실패 사례:

  • 금융위기 전 관료들
  • 소련 계획경제
  • 일본 버블 대응
권력이 집중되면:[edit | edit source]
  • 오류가 누적
  • 내부 비판 제거
  • 수정 불가능

👉 “틀렸을 때 고칠 방법이 없음”

사람들은 묻습니다:[edit | edit source]

👉 결과:

  • 불복종
  • 저항
  • 사회적 폭발

📌 효율적이더라도 정당성 없는 시스템은 오래 못 감

완전한 엘리트 통치 ❌[edit | edit source]

완전한 직접 민주주의 ❌

👉 혼합 모델

- 결정: 엘리트[edit | edit source]
  • 방향 설정: 민주적 합의
  • 집행: 전문가
  • 견제: 시민·사법·언론

📌 서구 민주국가의 실제 작동 방식

:[edit | edit source]

:[edit | edit source]

이 질문에는 정답이 없습니다. 그래서 이 논쟁은 정치가 아니라 철학입니다.

- AI가 엘리트 역할을 대신할 수 있는가?[edit | edit source]
  • 팔란티어식 ‘엘리트 보조 AI’는 어디까지 허용 가능한가?
  • 민주주의의 최소 단위는 무엇인가? (투표? 설명 가능성?)

어디까지 파볼까요?

User: AI가 민주주의 진영보다 오히려 권위주의에서 더 효과적으로 쓰일것 같은데 어떻게 생각해[edit | edit source]

AI가 민주주의 진영보다 오히려 권위주의에서 더 효과적으로 쓰일것 같은데 어떻게 생각해

Assistant: 아주 정확한 직관입니다.[edit | edit source]

아주 정확한 직관입니다. 결론부터 말하면:

이게 핵심 구조입니다. 아래에서 차분히 풀겠습니다.

###[edit | edit source]

권위주의 체제:

  • 프라이버시 제약 거의 없음
  • 통신·결제·이동 데이터 전면 수집
  • 옵트아웃 불가

👉 AI 학습의 최대 병목 = 데이터 👉 이 병목이 사라짐

- 입법 과정 없음[edit | edit source]
  • 공청회 없음
  • 사법적 제동 없음

👉 AI 추천 → 즉시 실행

📌 민주주의에서는:

  • “설명 가능성”
  • “정당성”
  • “동의 절차”

가 반드시 필요 → 속도 저하

권위주의:[edit | edit source]
  • 실업, 차별, 오류에 대한 사회적 항의 억제
  • AI 결정에 인간이 개입할 필요 없음

👉 완전 자동화 가능

- AI 정책 실패[edit | edit source]
  • 통계 조작
  • 책임 전가

👉 민주주의에서는 불가능

###[edit | edit source]

  • 치안 예측
  • 사회 신용
  • 여론 관리
  • 행정 자동화

👉 “AI 통치”의 실험실

📌 효율만 보면:

여기서 관점이 바뀝니다.[edit | edit source]

###[edit | edit source]

  • 상향 보고 왜곡
  • 처벌 회피
  • 통계 미화

👉 AI는 거짓 데이터로 최적화

📌 “Garbage In, Garbage Out”

민주주의:[edit | edit source]
  • 언론
  • 야당
  • 법원
  • 시민사회

권위주의:

  • 침묵

👉 AI가 틀려도:

  • 수정 신호가 안 올라옴
  • 오류 누적
AI는:[edit | edit source]
  • 기존 권력 구조 강화
  • 불편한 변화 억제

👉 단기 안정 ↔ 장기 경직

- 창의적 반대 의견 억제[edit | edit source]
  • 비주류 제거

📌 AI는 기존 패턴을 강화하지 새로운 패러다임을 만들지 않음

###[edit | edit source]

  • 오류 보고 가능
  • 내부 고발
  • 시민 피드백

👉 학습 신호의 질 ↑

- AI = 추천[edit | edit source]
  • 인간 = 책임

👉 느리지만 대형 사고 회피

- 정책 실패 → 정권 교체[edit | edit source]
  • AI 시스템 재설계

📌 권위주의는 실패 = 체제 위협

###[edit | edit source]

  • 권위주의 AI 통치 우위
  • 민주주의 “비효율” 프레임 강화
- 권위주의 AI 경직[edit | edit source]
  • 내부 붕괴 위험
  • 민주주의는 느리게 진화

👉 역사적 반복 패턴

:[edit | edit source]

팔란티어의 선택 이유가 여기 있음:[edit | edit source]

  • 민주주의는 느림
  • 하지만 AI와 공존 가능한 유일한 체제

👉 권위주의 + AI = 단기 최적 👉 민주주의 + AI = 장기 생존

:[edit | edit source]

이 질문에 실패하면 체제는 기술에 의해 선택됩니다.

원하시면 다음으로:

  • AI 독재는 실제로 가능한가?
  • AI가 민주주의 자체를 대체할 수 있는가?
  • 팔란티어 AIP는 이 구조에서 정확히 어떤 역할인가?

어디까지 이어갈까요?

User: 다 알려줘[edit | edit source]

다 알려줘

Assistant: 좋습니다.[edit | edit source]

좋습니다. 그럼 이 논의의 끝까지 한 번에 정리하겠습니다. 아래 내용은 서로 분리된 질문이 아니라 하나의 흐름입니다.

:[edit | edit source]

이제 세 가지를 순서대로 봅니다.

##[edit | edit source]

###[edit | edit source]

  • 감시 → 예측 → 선제 대응
  • 반대 의견 사전 제거
  • 자원 배분 자동화
  • 여론 조작 정밀화

👉 인간 독재자의 약점(피로, 감정, 실수)을 AI가 보완

📌 결과:

  • “더 똑똑하고 덜 실수하는 독재”

###[edit | edit source]

  • 공포는 유지할 수 있어도
  • 자발적 복종은 생성 불가

📌 체제 안정성 공식:

- AI 정책 실패[edit | edit source]
  • 경제·환경·사회 충격

민주주의: → 정권 교체 → 시스템 유지

AI 독재: → 체제 실패 → 혁명 / 붕괴

AI는:[edit | edit source]
  • 상층 엘리트에게만 이해 가능
  • 결정 과정 불투명

👉 불만 축적 + 설명 불가 👉 폭발은 갑작스럽고 폭력적

:[edit | edit source]

##[edit | edit source]

민주주의의 핵심은:[edit | edit source]

  • 최적의 정책 ❌
  • 빠른 결정 ❌

👉 “통치에 대한 동의 생성 장치”

- 정책 시뮬레이션[edit | edit source]

  • 최적 경로 계산
  • 리스크 예측

- “왜 내가 따라야 하는가”에 대한 답[edit | edit source]

  • 패배한 쪽을 설득
  • 책임 수용

📌 그래서 현실적인 미래는:

:[edit | edit source]

구조:

  • AI: 선택지 생성
  • 인간: 선택
  • 시민: 승인 / 거부
  • 법: 최종 통제

👉 투표는 줄어들 수 있지만 👉 동의 절차는 사라지지 않음

##[edit | edit source]

- 자동 집행 ❌[edit | edit source]

  • 블랙박스 판단 ❌
  • 책임 이전 ❌

📌 왜냐하면:

| | | |[edit | edit source]

| --- | --- | --- | | | | | | | | | | | | | | | | | | | | |

👉 느린 대신 정치적으로 살아남는 AI

##[edit | edit source]

  • 단기 효율: ★★★★★
  • 장기 안정: ★★☆☆☆
  • 붕괴 방식: 급격 / 폭력적

- 단기 효율: ★★☆☆☆[edit | edit source]

  • 장기 안정: ★★★★☆
  • 붕괴 방식: 점진 / 교체 가능

:[edit | edit source]

  • 잘 쓰면: 안정 강화
  • 잘못 쓰면: 붕괴 가속

:[edit | edit source]

팔란티어, 서구 민주주의, 기술 엘리트들이 공통으로 택한 답은 하나입니다:

:[edit | edit source]

여기까지 왔다면, 이제 진짜 마지막 선택 질문만 남았습니다:

  • 이 구조에서 투자자로서 팔란티어를 어떻게 봐야 하는가
  • 개인은 AI 시대에 어떤 능력을 가져야 살아남는가
  • 민주주의 시민으로서 어디까지 양보하면 안 되는가

어디까지 더 파볼까요?

User: 팔란티어는 ai를 사용한 선택지나 가능성을 제시하고 결정 권한은 인간이 가지게 하는데 인간이 특정 결정을 내리도록 유도할수도 있지않아?[edit | edit source]

팔란티어는 ai를 사용한 선택지나 가능성을 제시하고 결정 권한은 인간이 가지게 하는데 인간이 특정 결정을 내리도록 유도할수도 있지않아?

Assistant: 아주 핵심을 찌른 질문입니다.[edit | edit source]

아주 핵심을 찌른 질문입니다. 이건 팔란티어·AIP·민주주의 AI 논쟁의 ‘가장 위험한 지점’이에요.

결론부터 말하면:

그렇다.
팔란티어는 “결정권을 인간에게 둔다”고 말하지만,
실제로는 인간의 결정을 ‘강하게 유도’할 수 있다.
그리고 이 유도는
명령보다 훨씬 강력할 수 있다.

아래에서 왜 그런지, 어디까지 가능한지, 그리고 팔란티어가 왜 이걸 의식적으로 통제하려 하는지까지 설명하겠습니다.

1️⃣ 왜 ‘선택지 제시’는 중립적이지 않은가?[edit | edit source]

인간의 결정은 합리적이지 않다[edit | edit source]

행동경제학의 기본 전제:

  • 프레이밍 효과
  • 앵커링
  • 기본값 편향
  • 위험 회피

👉 선택지를 “어떻게” 보여주느냐가

결과를 거의 결정한다

예시 (정책 AI)[edit | edit source]

AI가 제시:

  1. 옵션 A: 비용 ↑, 안정성 ↑
  2. 옵션 B: 비용 ↓, 리스크 ↑
  3. 옵션 C: 현재 유지 (추천)

📌 이때 “추천” 표시 하나로 90%는 C를 선택

👉 명령 없이 사실상 결정

2️⃣ 팔란티어가 할 수 있는 유도의 수준[edit | edit source]

팔란티어는 다음을 모두 조정할 수 있음[edit | edit source]
  • 선택지의 수 (3개 vs 10개)
  • 제시 순서
  • 시각적 강조
  • 리스크 서술 방식
  • 시뮬레이션 결과의 가중치
  • 실패 시나리오 상세도

👉 이건 기술이 아니라 권력 설계

3️⃣ 그래서 팔란티어는 “중립”이 아니다[edit | edit source]

중요한 문장 하나:

AI가 추천을 하는 순간,
중립성은 이미 깨진다.

팔란티어도 이걸 모를 리 없음.

4️⃣ 그럼 팔란티어는 왜 “결정권은 인간”이라고 말할까?[edit | edit source]

이유는 윤리가 아니라 책임과 생존[edit | edit source]
  • 법적 책임 회피
  • 정치적 공격 차단
  • 고객의 책임 전가 방지

📌 핵심:

“우리가 결정한 게 아니라
당신이 선택했다.”

5️⃣ 더 무서운 시나리오[edit | edit source]

“합리성 강요 AI”[edit | edit source]

AI가:

  • 과거 성공 사례
  • 통계적 우위
  • 비용 효율성

을 근거로 한 선택만 ‘정상’처럼 보이게 만들면

👉 인간의 반대는:

  • 비합리
  • 무능
  • 책임 회피

로 낙인찍힘

📌 이건 명령보다 강한 통제

6️⃣ 이게 민주주의에 왜 위험한가[edit | edit source]

민주주의의 핵심은:

  • 선택 ❌
  • 이견의 정당성

하지만 AI 추천 구조에서는:

  • 다수의견 = “데이터 기반”
  • 소수의견 = “감정적·비과학적”

👉 이견이 구조적으로 억압됨

7️⃣ 팔란티어는 이걸 어떻게 통제하려 하는가? (중요)[edit | edit source]

팔란티어의 실제 설계 철학:

① 인간 승인 필수 (Human-in-the-loop)[edit | edit source]
  • 자동 실행 불가
  • 기록 남김
② 반대 시나리오 강제 표시[edit | edit source]
  • “이 선택을 하지 않았을 때 결과”
  • 실패 케이스 노출
③ 감사 로그[edit | edit source]
  • 누가, 왜, 어떤 근거로 선택했는지 기록
④ 의도적 불편함[edit | edit source]
  • 즉시 실행 버튼 없음
  • 여러 단계 확인

📌 일부러 속도를 늦춤

8️⃣ 하지만 솔직한 결론[edit | edit source]

기술적으로는
인간의 결정을 유도하는 것을
완전히 막는 것은 불가능하다.

할 수 있는 건:

  • 투명성
  • 마찰
  • 책임 분산

9️⃣ 가장 중요한 문장[edit | edit source]

“AI가 권장하는 결정”과
“AI가 강요하지 않는 결정”은
전혀 다르지 않다.

10️⃣ 그래서 이 논의의 최종 질문[edit | edit source]

AI 시대의 자유란
‘선택권’이 아니라
‘비합리할 권리’일지도 모른다.

이 권리를 어디까지 지킬 것인지가 앞으로의 정치·기술·윤리의 핵심입니다.

원하시면 다음으로 이어서:

  • AI 추천을 규제하는 실제 법·제도는 무엇이 있는가
  • 팔란티어 내부에서 이 문제를 어떻게 논쟁하는가
  • 투자자 입장에서 이 리스크는 주가에 어떻게 반영되는가

어디까지 더 들어갈까요?

References[edit | edit source]

  1. "카프 철학과 경영원칙". ChatGPT. Retrieved 2026-01-03.
  2. "위키백과". en.wikipedia.org. Retrieved 2026-01-03.
  3. "Nixsia.com". nixsia.com. Retrieved 2026-01-03.
  4. "Nixsia.com". nixsia.com. Retrieved 2026-01-03.
  5. "12397KR". 12397kr.com. Retrieved 2026-01-03.
  6. "Pak Bloggers". Pak Bloggers. Retrieved 2026-01-03.
  7. "Pak Bloggers". Pak Bloggers. Retrieved 2026-01-03.
  8. "Nixsia.com". nixsia.com. Retrieved 2026-01-03.
  9. "위키백과". en.wikipedia.org. Retrieved 2026-01-03.
  10. "Investors.com". investors.com. Retrieved 2026-01-03.
  11. "TheStreet". thestreet.com. Retrieved 2026-01-03.
  12. "TheStreet". thestreet.com. Retrieved 2026-01-03.
  13. "RData" (PDF). rdata.kbsec.com. Retrieved 2026-01-03.
  14. "마켓워치". marketwatch.com. Retrieved 2026-01-03.