클라우드 컴퓨팅
클라우드 컴퓨팅은 국제표준화기구(ISO)에 의해 "자체 서비스 프로비저닝과 주문형 관리가 가능한 확장 가능하고 탄력적인 공유 물리적 또는 가상 자원 풀에 대한 네트워크 접근을 가능하게 하는 패러다임"으로 정의된다. 일반적으로 "클라우드"라고 불린다.
특성
2011년, 미국 국립표준기술연구소(NIST)는 클라우드 시스템의 다섯 가지 "필수 특성"을 정의하였다. 아래는 NIST의 정확한 정의이다.
- 주문형 셀프서비스: "소비자는 각 서비스 제공자와의 사람 간 상호작용 없이도, 서버 시간이나 네트워크 스토리지와 같은 컴퓨팅 기능을 필요에 따라 자동으로 일방적으로 프로비저닝할 수 있다."
- 광범위한 네트워크 접근: "기능은 네트워크를 통해 이용 가능하며, 이기종의 씬 또는 씩 클라이언트 플랫폼(예: 휴대전화, 태블릿, 노트북, 워크스테이션)의 사용을 촉진하는 표준 메커니즘을 통해 접근된다."
- 자원 풀링: "제공자의 컴퓨팅 자원은 멀티테넌트 모델을 사용하여 여러 소비자에게 서비스를 제공하기 위해 풀링되며, 서로 다른 물리적·가상 자원이 소비자 수요에 따라 동적으로 할당 및 재할당된다."
- 신속한 탄력성: "기능은 수요에 비례하여 빠르게 확장 및 축소할 수 있도록 탄력적으로 프로비저닝 및 해제될 수 있으며, 경우에 따라 자동으로 이루어진다. 소비자에게 프로비저닝 가능한 기능은 종종 무한해 보이며, 언제든지 원하는 만큼 사용할 수 있다."
- 측정된 서비스: "클라우드 시스템은 서비스 유형(예: 스토리지, 처리, 대역폭, 활성 사용자 계정)에 적합한 추상화 수준에서 계량 기능을 활용하여 자원 사용을 자동으로 제어하고 최적화한다. 자원 사용량은 모니터링, 제어 및 보고될 수 있어 이용된 서비스의 제공자와 소비자 모두에게 투명성을 제공한다."
2023년까지 국제표준화기구(ISO)는 이 목록을 확장하고 정제하였다.
역사
클라우드 컴퓨팅의 역사는 1960년대로 거슬러 올라가며, 시분할의 초기 개념이 원격 작업 입력(RJE)을 통해 대중화되었다. 사용자가 메인프레임에서 실행할 작업을 운영자에게 제출하는 "데이터 센터" 모델이 이 시대에 주로 사용되었다. 이 시기에는 시분할을 통해 대규모 컴퓨팅 파워를 더 쉽게 접근할 수 있도록 하는 광범위한 실험이 이루어졌으며, 최종 사용자의 효율성을 개선하기 위해 인프라, 플랫폼, 애플리케이션을 최적화하였다.
가상화 서비스에 대한 "클라우드" 비유는 1994년으로 거슬러 올라가며, 제너럴 매직(General Magic)이 텔레스크립트(Telescript) 환경에서 모바일 에이전트가 "갈 수 있는" "장소"의 세계를 지칭하는 데 사용하였다. 이 비유는 네트워킹과 통신 분야에서의 오랜 사용에 기반하여, 제너럴 매직의 커뮤니케이션 전문가인 데이비드 호프먼(David Hoffman)의 공로로 인정된다. 클라우드 컴퓨팅이라는 표현은 1996년 컴팩 컴퓨터(Compaq Computer Corporation)가 미래 컴퓨팅과 인터넷에 대한 사업 계획을 수립하면서 더 널리 알려지게 되었다. 이 회사의 야심은 "클라우드 컴퓨팅 기반 애플리케이션"으로 매출을 강화하는 것이었다. 사업 계획은 온라인 소비자 파일 저장 서비스가 상업적으로 성공할 가능성이 높다고 내다보았다. 이에 따라 컴팩은 인터넷 서비스 제공업체에 서버 하드웨어를 판매하기로 결정하였다.
2000년대에는 2002년 아마존 웹 서비스(AWS)의 설립과 함께 클라우드 컴퓨팅의 응용이 본격적으로 형태를 갖추기 시작했으며, 이를 통해 개발자들이 독립적으로 애플리케이션을 구축할 수 있게 되었다. 2006년에는 아마존 심플 스토리지 서비스(Amazon S3)와 아마존 탄력적 컴퓨트 클라우드(EC2)가 출시되었다. 2008년에는 NASA가 프라이빗 및 하이브리드 클라우드 배포를 위한 최초의 오픈소스 소프트웨어를 개발하였다.
그 이후 10년간 다양한 클라우드 서비스가 출시되었다. 2010년에 마이크로소프트는 마이크로소프트 애저(Microsoft Azure)를 출시했고, 랙스페이스 호스팅(Rackspace Hosting)과 NASA는 오픈소스 클라우드 소프트웨어 프로젝트인 오픈스택(OpenStack)을 시작하였다. IBM은 2011년에 IBM 스마트클라우드(SmartCloud) 프레임워크를 도입했고, 오라클은 2012년에 오라클 클라우드(Oracle Cloud)를 발표하였다. 2019년 12월, 아마존은 AWS 아웃포스트(AWS Outposts)를 출시하여 AWS 인프라, 서비스, API 및 도구를 고객 데이터 센터, 코로케이션 시설 또는 온프레미스 시설까지 확장하는 서비스를 제공하였다.
.png&width=800)
출처: Wikimedia Commons, CC BY-SA 4.0
가치 제안
클라우드 컴퓨팅은 사전 구성된 도구, 확장 가능한 자원, 관리형 서비스를 제공하여 시장 출시 시간을 단축할 수 있으며, 사용자가 인프라 유지보수가 아닌 핵심 비즈니스 가치에 집중할 수 있게 한다. 클라우드 플랫폼은 조직과 개인이 물리적 인프라에 대한 초기 자본 지출을 줄이고, 사용량에 따라 비용이 변동하는 운영 비용 모델로 전환할 수 있게 해준다. 클라우드 플랫폼은 또한 인공지능, 데이터 분석, 머신러닝과 같은 관리형 서비스와 도구를 제공하며, 이러한 서비스는 그렇지 않으면 상당한 사내 전문 지식과 인프라 투자가 필요할 수 있다.
클라우드 컴퓨팅은 효과적인 자원 최적화를 통해 비용 이점을 제공할 수 있지만, 적절한 감독과 거버넌스 없이는 미사용 자원, 비효율적인 구성, 숨겨진 비용과 같은 과제에 직면하는 경우가 많다. 많은 클라우드 플랫폼이 AWS 비용 탐색기(Cost Explorer)나 애저 비용 관리(Azure Cost Management)와 같은 비용 관리 도구를 제공하며, 핀옵스(FinOps)와 같은 프레임워크가 클라우드 내 재무 운영을 표준화하기 위해 등장하였다. 클라우드 컴퓨팅은 또한 인터넷 연결이 가능한 모든 위치에서 데이터와 애플리케이션에 대한 안전한 접근을 가능하게 하여 협업, 원격 근무 및 글로벌 서비스 제공을 촉진한다.
클라우드 제공업체는 관리형 스토리지와 관리형 데이터베이스와 같은 핵심 서비스에 대해 다양한 이중화 옵션을 제공하지만, 이중화 구성은 서비스 등급에 따라 달라지는 경우가 많다. 리전 간 복제나 장애 조치 시스템과 같은 고급 이중화 전략은 일반적으로 명시적인 구성이 필요하며, 추가 비용이나 라이선스 수수료가 발생할 수 있다.
클라우드 환경은 공동 책임 모델에 따라 운영되며, 제공업체는 일반적으로 인프라 보안, 물리적 하드웨어, 소프트웨어 업데이트를 담당하고, 고객은 데이터 암호화, 신원 및 접근 관리(IAM), 애플리케이션 수준의 보안을 책임진다. 이러한 책임은 클라우드 서비스 모델—서비스형 인프라(IaaS), 서비스형 플랫폼(PaaS), 서비스형 소프트웨어(SaaS)—에 따라 달라지며, 고객은 일반적으로 IaaS 환경에서 더 많은 제어권과 책임을 가지고, PaaS와 SaaS 모델에서는 점진적으로 줄어들며, 종종 편의성과 관리형 서비스를 위해 제어권을 교환하게 된다.

출처: Wikimedia Commons, Public domain
도입과 적합성
클라우드 컴퓨팅을 도입할지 온프레미스 인프라를 유지할지의 결정은 확장성, 비용 구조, 지연 시간 요구사항, 규제 제약, 인프라 커스터마이징과 같은 요소에 따라 달라진다.
변동적이거나 예측 불가능한 워크로드를 가진 조직, 초기 투자를 위한 자본이 제한된 조직, 또는 빠른 확장성에 중점을 둔 조직은 클라우드 도입으로부터 혜택을 받는다. 스타트업, SaaS 기업, 전자상거래 플랫폼은 종종 클라우드 인프라의 종량제 운영 비용(OpEx) 모델을 선호한다. 또한 글로벌 접근성, 원격 인력 지원, 재해 복구를 우선시하고, AI/ML 및 분석과 같은 고급 서비스를 활용하려는 기업은 클라우드에 적합하다. 최근 몇 년간 일부 클라우드 제공업체는 고성능 컴퓨팅과 저지연 애플리케이션을 위한 특화 서비스를 제공하기 시작하여, 이전에는 온프레미스 환경에서만 가능했던 일부 사용 사례를 다루고 있다.
반면, 엄격한 규제 요구사항, 매우 예측 가능한 워크로드, 또는 깊이 통합된 레거시 시스템에 의존하는 조직은 클라우드 인프라가 덜 적합할 수 있다. 국방, 정부 기관, 또는 매우 민감한 데이터를 다루는 산업의 기업들은 더 큰 통제력과 데이터 주권을 위해 온프레미스 환경을 선호하는 경우가 많다. 또한 초고빈도 매매(HFT) 기업과 같이 극도로 낮은 지연 시간을 요구하는 기업은 커스텀 하드웨어(예: FPGA)와 거래소와의 물리적 근접성에 의존하며, 이는 대부분의 클라우드 제공업체가 완전히 복제하기 어렵다.
관련 문서
관련 인사이트

로봇은 왜 볼트를 떨어뜨리는가 — Physical AI가 공장에 필요한 진짜 이유
AI가 데이터 패턴만 외우는 시대는 끝나고 있다. 물리 법칙을 이해하는 Physical AI가 제조 현장에 왜 필요한지, KAIST 교수와 자동차 부품 공장 팀장이 볼트 하나를 놓고 이야기한다.

디지털 트윈, 당신 공장엔 이미 있다 — 엑셀과 MES 사이 어딘가에
디지털 트윈은 10억짜리 3D 시뮬레이션이 아니다. 지금 쓰고 있는 엑셀에 좋은 질문 하나를 더하는 것 — 두 전문가가 중소 제조기업이 이미 가진 데이터로 예측하는 공장을 만드는 현실적 로드맵을 제시한다.

공장의 뇌는 어떻게 생겼는가 — 제조운영 AI 아키텍처 해부
지식관리, 업무자동화, 의사결정지원 — 따로 보면 다 있던 것들입니다. 제조 AI의 진짜 차이는 이 셋이 순환하면서 '우리 공장만의 지능'을 만든다는 데 있습니다.