NASA가 방금 4명의 우주비행사를 달로 보냈어요. 아르테미스 II 미션이죠. 그런데 이 프로젝트 발표 자료를 보면서 이상한 걸 발견했어요. 최신 AI 기술 얘기가 거의 없더라고요.
2026년인데 말이에요. ChatGPT는 이미 5세대를 넘었고, 자율주행차는 상용화됐고, 우리는 AI 에이전트로 이메일 답장을 자동화하는 시대에 살고 있잖아요. 근데 인류 최대 우주 프로젝트에선 AI가 보조 역할만 하고 있어요.
우주산업이 AI를 조심스럽게 다루는 진짜 이유
실제로 NASA 프로젝트 문서를 뜯어보면 흥미로운 지점이 있어요. AI는 데이터 분석이나 시뮬레이션에만 쓰이고, 실시간 의사결정에는 거의 관여하지 않아요. 왜 그럴까요?
신뢰성 문제가 가장 커요. 우주에서는 99.9%의 정확도도 부족해요. 0.1%의 오류가 사람 목숨을 앗아갈 수 있거든요. 그런데 우리가 매일 쓰는 AI 툴들 생각해보세요. Claude도, GPT-4도 가끔 헛소리하잖아요. 할루시네이션이라고 부르는 그거요.
지난주에 저도 코드 리뷰를 AI한테 맡겼다가 존재하지 않는 라이브러리를 추천받았어요. 업무용으로 쓸 땐 웃고 넘길 수 있죠. 근데 달 착륙선 제어 시스템이 그러면요? 상상만 해도 끔찍해요.
1. 우주 환경은 AI 훈련 데이터가 없어요
AI가 잘하려면 데이터가 많아야 해요. 그게 기본이죠. 근데 달 표면 데이터는 얼마나 있을까요? 1960~70년대 아폴로 미션 때 수집한 거랑, 무인 탐사선이 보낸 것밖에 없어요.
비교해볼게요. 자율주행 AI는 수백만 킬로미터의 도로 주행 데이터로 학습해요. 테슬라만 해도 전 세계 차량에서 실시간으로 데이터를 받죠. 근데 달은요? 인간이 실제로 걸어본 시간을 다 합쳐도 며칠 안 돼요.
데이터가 부족하면 AI는 추측을 해요. 그게 문제예요. 지구에서 ‘비슷한’ 환경으로 학습시킨다 해도, 달의 1/6 중력, 극한 온도 변화, 우주 방사선 같은 변수를 완벽히 재현할 수 없거든요.
2. 법적 책임 문제가 아직 안 풀렸어요
참고 뉴스에 재미있는 기사가 있었어요. 아르테미스 달 기지 프로젝트가 법적으로 불확실하다는 거예요. 우주 조약이 1967년에 만들어졌는데, AI는 당연히 고려 대상이 아니었죠.
만약 AI가 내린 결정으로 사고가 나면 누가 책임질까요? 개발자? NASA? AI 자체? 이게 아직 명확하지 않아요. 자율주행차 사고 때도 이 문제로 몇 년째 싸우고 있잖아요. 하물며 우주에선요.
실무에서 일하다 보면 이런 거 자주 봐요. 기술은 준비됐는데 법과 규정이 못 따라가는 경우요. 저희 회사도 AI 자동화 시스템 도입하려다가 개인정보보호법 때문에 6개월 늦어진 적 있어요. 우주산업은 그보다 100배는 더 보수적이에요.
그럼에도 AI가 우주산업에 쓰이는 3가지 분야
완전히 배제된 건 아니에요. 조심스럽게, 하지만 확실하게 쓰이고 있죠.
비행 경로 최적화
SpaceX의 팰컨9 로켓은 AI로 연료 소비를 최적화해요. 실시간 의사결정은 아니고, 발사 전 시뮬레이션 단계에서요. 수천 번의 가상 발사를 돌려서 최적의 경로를 찾는 거죠.
이건 AI가 정말 잘하는 일이에요. 변수가 많고, 정답이 여러 개 있고, 인간이 계산하기엔 너무 복잡한 문제요. 저도 업무에서 리소스 배분 최적화할 때 비슷한 방식 써요. Python으로 시뮬레이션 돌리고, 결과를 사람이 최종 검토하는 거죠.
우주 쓰레기 추적
지구 궤도엔 쓰레기가 수만 개 떠다녀요. 작은 볼트 조각도 총알보다 빠른 속도로 날아가서 위성을 박살낼 수 있어요. 이걸 추적하는 데 AI가 쓰여요.
ESA(유럽우주국)는 머신러닝으로 우주 쓰레기 궤도를 예측해요. 레이더 데이터 패턴을 학습해서, 충돌 가능성을 미리 경고하죠. 이것도 사람이 최종 결정해요. AI는 ‘이거 위험할 수 있어요’라고 알려주는 역할만 하고요.
화성 로버 자율 주행
NASA의 퍼시비어런스 로버는 어느 정도 자율주행을 해요. 지구-화성 간 통신이 20분 걸리니까, 실시간 조종이 불가능하거든요. 그래서 ‘저 바위까지 가’라고 명령하면 AI가 알아서 경로를 찾아요.
아쉬운 점은, 이것도 매우 보수적으로 작동한다는 거예요. 조금이라도 불확실하면 멈추고 지구에 물어봐요. 하루에 몇 미터 못 가는 날도 많죠. 효율성보단 안전성이 우선이에요.
AI 업계가 우주산업에서 배워야 할 것
여기서 되게 아이러니한 인사이트를 얻었어요. 우리는 AI를 너무 빨리, 너무 많이 도입하려고 하는 건 아닐까요?
요즘 스타트업 피칭 자료 보면 AI 안 들어간 게 없어요. 고객 서비스, 재고 관리, 채용, 마케팅… 다 AI로 자동화하겠다고 해요. 근데 실제로 써보면 사람 손이 여전히 많이 가요.
NASA의 접근 방식이 오히려 현실적일 수 있어요. AI는 보조 도구로 쓰고, 중요한 결정은 사람이 한다. 지루하게 들릴 수 있지만, 실제 업무에선 이게 맞아요.
저희 팀도 코드 자동 생성 AI 쓰지만, 반드시 사람이 리뷰해요. AI가 만든 SQL 쿼리를 검증 없이 프로덕션에 올렸다간 데이터베이스가 날아갈 수 있거든요. 실제로 한 번 사고 날 뻔했어요.
2026년 현재, 우주와 AI의 현실적 교집합
트럼프 행정부의 birthright citizenship 금지 시도 뉴스도 참고 자료에 있었는데요. 법과 기술의 충돌이라는 점에서 비슷해요. 법적 프레임워크가 없으면 아무리 좋은 기술도 제대로 못 써요.
우주산업은 지금 이 딜레마를 겪고 있어요. AI 기술은 있어요. 근데 우주라는 극한 환경에서, 법적 책임 문제를 해결하며, 사람 목숨을 걸고 쓸 만큼 신뢰할 수 있느냐? 아직은 아니에요.
실무자가 보는 앞으로 5년
개인적으로 예상하면, 2030년쯤엔 달 기지에서 AI 활용이 많이 늘어날 거예요. 하지만 영화처럼 AI가 알아서 다 하진 않을 거예요.
- 환경 모니터링: 산소 농도, 방사선 수치, 장비 상태를 AI가 24시간 감시
- 자원 관리: 물, 전력, 식량 소비 패턴 분석해서 효율적으로 배분
- 예측 정비: 장비 고장을 미리 예측해서 부품 교체 타이밍 알려주기
전부 ‘보조’ 역할이에요. 최종 결정은 사람이 해요. 솔직히 그게 맞다고 봐요.
당신의 업무에 적용할 수 있는 인사이트
우주 얘기가 나랑 무슨 상관이냐고요? 있어요.
요즘 AI 툴 도입 압박 받는 직장인, 창업자 많잖아요. ‘경쟁사는 다 AI 쓰는데 우리만 안 쓰면 어쩌나’ 이런 불안감이요. 근데 NASA도 조심스럽게 접근하는데, 우리라고 막 도입할 필요 있을까요?
중요한 건 AI를 어디에 쓸지 선택하는 거예요. 반복적이고, 실수해도 치명적이지 않고, 데이터가 충분한 업무부터 시작하세요.
예를 들어볼게요:
- 고객 문의 1차 분류 → AI가 해도 괜찮아요. 잘못 분류해도 사람이 다시 보면 되니까요.
- 최종 계약서 작성 → AI 초안 만들고 변호사가 검토. NASA 방식이죠.
- 자금 집행 승인 → 이건 AI한테 맡기면 안 돼요. 우주선 발사 버튼처럼 중요한 거니까요.
ChatGPT, Claude, Perplexity 같은 툴들 정말 좋아요. 저도 매일 써요. 근데 모든 결과물을 제가 검토해요. 그게 5년 차 엔지니어로서 배운 거예요. AI는 똑똑한 인턴이지, 상사가 아니에요.
마치며
NASA가 달로 사람을 보내는데 AI를 제한적으로 쓰는 건, 기술이 부족해서가 아니에요. 너무 잘 알기 때문이에요. AI의 능력도, 한계도요.
우리도 마찬가지예요. AI 열풍에 휩쓸려서 무작정 도입하기보다, 어디에 어떻게 쓸지 신중하게 선택해야 해요. 멋있게 들리진 않지만, 그게 실제로 일하는 방식이에요.
흥미로운 지점은, 가장 앞선 우주 기술이 오히려 AI 활용에선 보수적이라는 거예요. 그리고 그게 틀린 접근이 아니라는 거죠. 당신의 업무에서도 AI는 도구예요. 전부가 아니고요. 그 균형을 찾는 게, 2026년을 사는 우리의 진짜 과제예요.
#ChatGPT #GPT-4 #GPT #Claude #AI에이전트 #AI #머신러닝 #자동화