Conceptly
← 전체 목록
🤖

Amazon Bedrock

AI/ML파운데이션 모델 API 서비스

Bedrock은 이미 준비된 파운데이션 모델을 공통 API로 호출해 제품 기능에 붙이는 AI 계층입니다. 직접 학습 인프라를 만들지 않고도 생성형 모델의 추론 능력을 애플리케이션으로 가져옵니다.

아키텍처 다이어그램

🔗 관계 다이어그램

점선 애니메이션은 데이터 또는 요청의 흐름 방향을 나타냅니다

왜 필요한가요?

챗봇이나 요약 기능을 넣고 싶은데 모델 서빙, 스케일링, 공급자별 API 차이까지 직접 흡수하려 하면 제품 개발 속도가 급격히 떨어집니다. 기능 실험보다 모델 운영 준비가 먼저 커지면 진입 장벽이 너무 높아집니다.

왜 이런 방식이 등장했나요?

AI 기능을 직접 구축하려면 GPU 인프라 확보, 모델 학습, 파인튜닝, 보안 검토까지 수개월이 걸렸습니다. 챗봇 기능 하나를 추가하려 해도 팀이 클라우드 GPU 인스턴스 계약, 모델 가중치 관리, 데이터 보안 심사를 모두 직접 거쳐야 했고, 그 사이에 신제품 출시 일정은 계속 밀렸습니다. 이 진입 비용이 너무 높다 보니 AI 기능 실험 자체를 포기하는 팀이 많았습니다. 인프라 부담 없이 검증된 모델을 API로 바로 소비할 수 있는 Bedrock 같은 서비스가 빠르게 중요해진 이유입니다.

안에서 어떻게 동작하나요?

Bedrock의 동작은 단순한 흐름으로 이해할 수 있습니다. 이미 대규모 데이터로 사전 학습된 파운데이션 모델(LLM, 이미지 모델 등)이 Bedrock 안에 준비돼 있습니다. 애플리케이션이 프롬프트와 파라미터를 담아 API 요청을 보내면, Bedrock이 해당 모델로 요청을 전달하고 추론 결과를 응답으로 돌려줍니다. GPU 할당이나 모델 서빙 관리는 Bedrock이 맡으므로, 애플리케이션은 요청과 응답 형식에만 집중하면 됩니다.

무엇과 헷갈리나요?

Bedrock과 SageMaker는 둘 다 AI 서비스지만 쓰임이 다릅니다. Bedrock은 이미 준비된 모델을 호출하는 데 초점이 있고, SageMaker는 직접 모델을 학습하고 배포하는 데 초점이 있습니다. 프롬프트와 애플리케이션 로직으로 생성형 기능을 빠르게 붙이고 싶으면 Bedrock을 보고, 데이터와 학습 파이프라인까지 직접 운영해야 하면 SageMaker를 보면 됩니다.

언제 쓰나요?

챗봇, 요약, 분류, 보조 작성, RAG 프로토타입처럼 모델 호출 자체가 핵심인 기능에 적합합니다. 자체 데이터로 모델을 직접 학습하거나 정밀 튜닝해야 하는 경우에는 맞지 않습니다.

챗봇/가상 비서텍스트 생성RAG 애플리케이션코드 생성