급변하는 AI 환경 속에서, 기업은 보다 신속하고 효율적인 AI 개발과 운영 체계를 요구받고 있습니다.
이번 웨비나에서는 Red Hat OpenShift AI 플랫폼의 핵심 기능과 함께, 이를 활용한 실제 AI 솔루션 개발 및 MLOps 적용 사례를 통해 기업의 AI 도입 및 활용 전략을 모색해보고자 합니다 AI 플랫폼 구축을 고민 중이시거나, 안정적인 AI 모델 운영을 위한 인사이트가 필요하신 분들께 많은 도움이 될 이번 웨비나에 여러분을 초대합니다!
2025년 06월 11일 (수요일) - 웨비나 방송 중에 있었던 질문과 답변 입니다.
안녕하세요
안녕하세요!
안녕하세요 반갑습니다. 이곳은 질문창이며, 추후 질문이 있으시면 여기에 질문 남겨주세요!
Red Hat OpenShift AI는 기존 Kubernetes 기반 인프라와 어떻게 연동되며, 어떤 이점을 제공하나요?
OpenShift AI는 OpenShift 클러스터에 Add-On 형태로 배포되어, 클라우드 네이티브 환경에서 데이터 과학 및 MLOps 워크플로우를 효율적으로 통합할 수 있는 플랫폼을 제공합니다.
성공적인 AI/ML 이런 부분을 검증 하려면 어떻 기준으로 평가 하나요?
AI/ML의 성공은 단순한 기술 성능이 아니라, 실제 업무에의 적용성과 비즈니스 영향도까지 포함한 종합적인 평가로 검증해야 합니다.
[질문] OpenShift AI 플랫폼에서 쿠버네티스 기반 워크로드 자동 확장은 AI 모델 학습과 추론에 어떻게 최적화되나요?
OpenShift AI는 모델 학습과 추론 워크로드의 실시간 리소스 사용 패턴에 따라 Tekton, HPA/VPA, ModelMesh, GPU 스케줄링 등을 연계해 자동 확장함으로써, AI 서비스의 성능과 리소스 효율을 동시에 최적화합니다.
OpenShift AI는 기존의 쿠버네티스 환경 기반 MLOps 도구들과 어떤 차별화된 아키텍처를 갖고 있나요? 특히 모델 서빙과 재학습 자동화 측면에서 어떤 이점이 있는지 궁금합니다.
또힌 모델을 서빙을 위한 엔진이 포함되어 있어서 모델을 개발하고 배포하기 위한 모든 컴포넌트를 포함하고 있어서 각 엔지니어분들이 본연의 업무에 집중할 수 있도록 지원합니다.
Red Hat OpenShift AI는 기존 OpenShift가 제공하는 CI/CD 도구 Tekton(OpenShift Pipelines)를 활용하여 모델 재학습 과정을 자동화합니다.
파이프라인 자동화나 모델 배포 과정에서 GitOps나 CI/CD 연동은 어느 수준까지 지원되나요? 기존 DevOps 파이프라인과 쉽게 통합되는지도 궁금합니다.
기존 DevOps 파이프라인에서 운영하는 기반 시스템으로 MLOps 파이프라인을 자동화합니다. 또한 GitOps 및 CI/CD를 OpenShift AI 환경에서 안정적으로 운영하실 수 있게 통합적으로 검증된 버전과 오픈소스를 제공합니다.
AI 및 머신러닝 기술을 메타버스 콘텐츠에 적용하여 자동화된 분석 및 지능형 의사결정 지원이 가능한지요? 그리고 메타버스 콘텐츠에서 3D 시뮬레이션을 어떻게 최적화하여 성능과 사용자 경험을 동시에 개선할 수 있는지요?
현재 업계 동향 및 앞으로의 발전 방향에 대해서 문의드립니다
1.OpenShift Pipelines을 사용하여 머신러닝 모델 학습, 검증, 배포까지 자동화하기 위한 구성방법이 궁금합니다. 그리고 OpenShift Pipelines을 활용한 모델 개발~배포 전체 워크플로우 자동화 사례도 궁금합니다. 2.OpenShift AI를 AWS, Azure, On-Prem 환경에서 하이브리드로 구성할 경우, 데이터 이동이나 모델 동기화는 어떻게 관리되는지요? OpenShift AI에서 모델과 데이터 버전 관리를 효율적으로 구성하는 최선의 관리방안은 무엇인지도 궁금합니다. 3.OpenShift AI에서 GPU 활용률, 메모리/디스크 사용량을 사용자별로 제한하거나 할당하는 방법이 있는지요? 그리고 모델 서비스 시 CPU/GPU 사용량, 추론 요청 지연 시간 등을 모니터링할 수 방법과 오류율 증가나 응답 지연 발생 시에 대응방법도 궁금합니다. 4.OpenShift AI에서 Fairness, Explainability 같은 AI 거버넌스 도구를 통합하려면 어떤 방식이 권장되는지요?
모델의 버전 관리나 실험 추적 기능은 어떤 도구 기반으로 제공되나요? MLflow, DVC, Feast 같은 오픈소스 도구와의 연계도 가능한가요?
모델의 버전관리를 할 수 있는 모델 레지스트리 기능이 현재 Tech Preview로 제공되고 있습니다. 또한 K8S 환경에서 사용가능한 오픈소스들 역시 연계가 가능합니다.
저희 회사는 AI/ML 분야에에 대한 업무를 많이 수행하다보니 스토리지에 대한 고민이 많습니다. 성능과 비용의 경계선상에서 항상 고민하게 됩니다. 특히 성능면에선 데이터처리속도가 무엇보다 중요한 요소인데요. 이런 현업의 고민에 대해 기존 스토리지 업체들과 어떤 차별화된 솔루션을 제공해주는지 궁금합니다.
GPU 자원 할당과 오토스케일링 기능은 어떻게 최적화되어 있나요? 다양한 AI 워크로드에 유연하게 대응할 수 있을지 알고 싶습니다.
OpenShift AI가 지원하는 주요 프레임워크(PyTorch, TensorFlow 등) 및 개발 도구는 무엇인가요?
PyTorch, CUDA, TensorFlow, VSCode, RStudio 등의 개발 도구를 제공합니다. 뿐만 아니라 고객의 커스텀한 개발 도구도 등록하여 활용할 수 있습니다.
[질문] OpenShift의 멀티 클라우드 지원이 AI 서비스 배포 및 관리에 주는 이점은 무엇인가요?
Red Hat OpenShift는 멀티클라우드 환경에 배포할 수 있어서 통합할 수 있는 플랫폼입니다. 그렇기 때문에 각 퍼블릭 클라우드의 가용성 및 상황에 따라 필요한 컴퓨팅 리소스를 적재 적소의 퍼블릭 클라우드를 기반으로 배포하여 운영할 수 있습니다.
[질문] 주요 경쟁 제품이나 솔루션은 무엇이 있고, 경쟁 대비 차별화된 점은 무엇인지 궁금합니다
분산 학습이 필요한 프로젝트에서는 어떤 프레임워크를 지원하나요? Horovod나 Ray 같은 툴과 자연스럽게 연동이 가능한지 궁금합니다.
CodeFlare와 Kuberay를 지원하고 있습니다. 그 외에 K8S 환경의 오픈소스 분산 프레임워크 역시 통합할 수 있습니다.
[질문] Red Hat OpenShift AI는 오픈소스 활용 개발 or API 연결 개발 둘 중 어느 방식 위주인가요?
멀티 클러스터나 하이브리드 클라우드 환경에서 모델 배포를 통합 관리할 수 있는 기능도 포함되어 있나요?
[질문] 솔루션 도입 전에 기업 입장에서 준비해야 하는 사항이나 필수 고려사항은 무엇인가요?
최근 SKT USIM 유출사고로 사회적이슈가 되고있는데 Red Hat OpenShift AI 환경에서 보안 유출사례와 취약점에 대해 대응방안이 있는지 설명부탁드립니다.
OpenShift AI를 도입한 국내 사례가 어떤 곳이 있나요? 혹시 도입시 효과가 좋은 분야가 특별히 있을까요?
AutoML 기능이나 하이퍼파라미터 튜닝과 같은 고급 모델링 지원도 포함되나요? 있다면 해당 기능은 오픈소스 생태계 기반인지, Red Hat이 자체 제공하는 기술인지 궁금합니다.
모델 운영 중 발생하는 데이터 드리프트나 성능 저하 탐지 기능도 포함되어 있나요? 있다면 Prometheus나 Grafana 외에 어떤 방식을 활용하는지도 궁금합니다.
[질문] Red Hat OpenShift AI는 소스코드 생성 시, 해당 코드의 취약점 여부를 검사하는 절차도 포함하여 지원하나요?
Red Hat OpenShift AI 자체는 AI/ML 워크로드 실행 및 MLOps 플랫폼이지, 코드 보안(static code analysis) 자체를 직접 수행하진 않습니다. 하지만 OpenShift AI는 보안 취약점 검사를 DevSecOps 흐름에 통합할 수 있는 구조를 갖추고 있습니다.
[질문]장애시 신속한 배포를 통한 장애시간단축이 컨테이너의 장점중 하나인것 같은데 급한 배포에 있어서 문제점이나 유의할사항이 있는지 궁금합니다.
(질문) 요즘 copilot 같은 코딩AI가 유용하게 개발에 활용되고 있습니다. 오픈API 개발, 운영에 이런 툴 활용이 가능할지, 유용한 활용방안이나 유의할 점들이 있을지 궁금합니다. 이런 생성형AI 툴이나 기술을 API 개발 운영에 활용하시는지 궁금합니다
실제 운영 환경에서 파이프라인 구성 요소 데이터 전처리, 모델 학습, 서빙 등을 컨테이너 단위로 분리해 관리할 수 있는 구조인지요?
Red Hat OpenShift AI의 MLOps 파이프라인은 각 단계가 컨테이너 단위, 정확하게는 Pod 단위로 수행하게 됩니다.
OpenShift AI는 생성형 AI 모델이나 RAG 파이프라인에도 대응 가능한가요? 향후 LLM 중심의 워크로드 지원 계획이 있다면 소개 부탁드립니다.
[질문] OpenShift AI의 MLOps 기능 중에서 특히 데이터 버전 관리와 관련된 부분이 기존 DevOps 환경과 어떻게 다른가요?
OpenShift AI는 생성형 AI 모델이나 RAG 파이프라인에도 대응 가능한가요? 향후 LLM 중심의 워크로드 지원 계획이 있다면 소개 부탁드립니다.
AI를 기반으로 자동화가 급증하고, 이를 통한 자동화 개발속도 향상과 사용자 업무 자동화가 증가하는 추세입니다. AI서비스 필요기능을 추가/수정하는데 어려움이 있다거나 고급기능을 구현하는데 한계가 있다는 지적도 있습니다. 이에 대한 대응책이나 견해가 궁금합니다.
[질문]금융권같은 신뢰성,보안성이 중요한 업무플랫폼에서 클라우드로의 전환은 상대적으로 조심스러운데 특히 대형 퍼블릭클라우드사에서 보안사고나 대형장애등이 빈번한 상황에서 기존 레거시 환경이상의 보안성 및 장애대비 안정성을 어떻게 보장할수 있을지 궁금합니다
Red Hat OpenShift AI는 단순히 오픈소스를 통합한것이 아니라 하드닝, 통합테스트, 보안조치 등을 거쳐서 고객에게 제공됩니다. 또한 고객의 필요시에 따라 온프레미스 형태로도 운영할 수 있어서 데이터 거버넌스가 중요한 프로젝트 및 고객은 온프레미스 환경에서도 사용하실 수 있습니다.
모델 배포 이후에도 A/B 테스트나 Canary Deployment 방식으로 점진적 적용이 가능한지, 관련 기능이 내장되어 있는지도 궁금합니다.
A/B 테스트는 OpenShift/Kubernetes 환경의 Service 기반으로 제어가 가능합니다. 또한 OpenShift Servicemesh를 통해서 Canary 배포 방식도 역시 지원합니다.
[질문] OpenShift AI 플랫폼 내에서 데이터 파이프라인 통합은 어떤 방식으로 구현되어 AI 모델 성능에 기여하나요?
OpenShift AI는 데이터 엔지니어링 파이프라인까지 포함한 E2E 관리를 목표로 하나요? 예를 들어 Kafka, Spark, Flink 같은 데이터 처리 엔진과의 통합 사례가 있는지요?
[질문]Red Hat OpenShift AI 개발자,운영자,데이터분석자가 통합하여 운영하기 위한 사전 통합 주요 요소는 무엇인지요? 기존 레드햇 MLOps에 AI 추가에 따른 주요 변경요소는 추가 요소가 있는지요?
모델 메타데이터 관리(Metadata Store)는 어떤 방식으로 운영되며, 사용자 정의 메타 필드나 검색 기능도 지원하나요?
모델 재학습 자동화하는 기능이 있다면, 트리거 조건은 데이터 기반인지, 스케줄 기반인지 알고 싶습니다.
OpenShift CronJob을 통해서 스케줄 기반으로 사용하실 수 있습니다. 또한 Red Hat Ansible Automation Platform의 Event Driven Ansible 기능을 활용한다면 특정 이벤트가 발생하였을때 작업을 수행할 수도 있습니다.
네트워크 분리 환경이나 보안 규제가 강한 조직(예: 금융기관, 공공기관)에서도 완전히 온프레미스로 구축 가능할까요? 필요한 기술적 고려사항이 있다면 함께 듣고 싶습니다.
완전한 온프레미스로 구축이 가능합니다. OpenShift AI를 운영하기 위해 Red Hat OpenShift 플랫폼이 필수적이고, 모델 및 데이터를 저장할 Object Storage도 권장됩니다.
[질문] 2025년에 가장 도입이 활발할 산업 및 업무영역은 무엇이고, 이를 위해 어떤 준비가 되어 있는지 궁금합니다
[질문] 도입이 제한되는 조건이 환경이 있나요? 있다면 대표적으로 어떤 사항이 있나요?
[질문] Red Hat OpenShift AI구축환경을 가장 잘 구축되었다고 자부하는 구축사례(제조/유통/서비스/공공 등)와 타사 제품과의 차별화 요소와 강점에 대해서 설명부탁드립니다.
[질문] 클러스터 내에서 다수의 프로젝트가 동시에 MLOps를 수행할 경우, OpenShift AI의 멀티테넌시 기능은 사용자 간 자원 분리와 보안 측면에서 어떤 정책을 기반으로 운영되나요?
[질문] 싸이웰시스템 실제 적용 사례에서 가장 큰 도입 장벽은 어떤 것이었고, 어떻게 극복하셨는지 궁금합니다. 기술적인 이슈 외에도 조직 내 협업 구조나 문화 측면의 변화가 있었을까요?
기술 스택의 복잡성도 상당한 도전과제였습니다. IBM Granite와 OpenAI ChatGPT라는 서로 다른 LLM을 통합해야 했고, RAG 시스템 구축을 위해 VectorDB와 GraphDB를 활용해야 했습니다. 이 모든 것을 Kubernetes 환경에서 운영해야 했기 때문에 복잡도가 높았습니다. 다행히 OpenShift AI가 제공하는 통합 개발 환경과 MLOps 기능을 활용해 효과적으로 관리할 수 있었습니다. 조직 문화 측면에서도 변화가 필요했습니다. 기존의 개별적인 개발 방식에서 벗어나 JupyterLab, Git, CI/CD 파이프라인 등을 활용한 표준화된 프로세스로 전환해야 했습니다. 팀원들이 새로운 도구와 워크플로우에 적응하는 데 시간이 필요했지만, 점진적으로 안정화되었습니다.
저희가 Red Hat OpenShift AI를 도입하면서 가장 어려웠던 부분은 기술적 의사결정이었습니다. 가장 큰 고민은 "Enterprise AI/ML 플랫폼을 사용할 것인가, 아니면 개별 도구들을 조합해서 사용할 것인가"였습니다. 정보보안, MLOps 자동화, 확장성, 운영 안정성, 개발 일관성, TCO까지 정말 다양한 요소들을 고려해야 했습니다. 처음에는 개별 도구 조합이 유연해 보였지만, 장기적으로 봤을 때 통합과 유지보수에 필요한 노력을 고려하면 플랫폼이 더 적합하다는 결론을 내렸습니다.
[질문] 플랫폼의 컨테이너 보안 기능은 AI 워크로드의 민감한 데이터 보호에 어떻게 대응하나요?
[질문 세션-2] 기존 AI 시스템과 비교해서 OpenShift AI를 도입한 후 모델 개발 주기나 운영 효율성이 얼마나 개선되었는지 궁금합니다.
OpenShift AI 도입 후 가장 눈에 띄는 변화는 모델 개발 주기의 단축이었습니다. 기존에는 개발 환경 구성부터 모델 배포까지 각 단계마다 별도의 도구를 사용하고 수동으로 연결해야 했는데, 이제는 통합된 플랫폼에서 일관된 워크플로우로 진행할 수 있게 되었습니다. 특히 MLOps 파이프라인 자동화를 통해 모델 학습, 검증, 배포 과정이 크게 간소화되었습니다. 이전에는 모델을 프로덕션에 배포하는 데 일주일 이상 걸리던 작업이 이제는 2-3일 내에 완료됩니다. 컨테이너 기반 환경 덕분에 개발에서 운영으로의 전환도 매우 원활해졌습니다. 운영 효율성 측면에서는 리소스 활용도가 크게 개선되었습니다. Kubernetes의 자동 스케일링 기능을 활용해 필요에 따라 컴퓨팅 자원을 탄력적으로 운영할 수 있게 되어, 유휴 자원은 줄이면서도 피크 시간대에는 충분한 성능을 확보할 수 있었습니다. 또한 통합 모니터링 시스템을 통해 모델 성능과 시스템 상태를 실시간으로 파악할 수 있어, 문제 발생 시 대응 시간도 현저히 단축되었습니다.
[질문] AI 할루시네이션에 대한 측정이나 해결은 어떻게 검증이 이루어졌는지 문의 드립니다
AI 할루시네이션 문제는 저희가 시스템 구축 시 가장 중요하게 다룬 과제 중 하나였습니다. 특히 기업 환경에서는 잘못된 정보 생성이 치명적일 수 있기 때문에 체계적인 검증 프로세스를 구축했습니다. 먼저 측정 방법으로는 정답이 명확한 테스트 데이터셋을 구성해 모델의 응답 정확도를 정량적으로 평가했습니다. 사실 확인이 가능한 질문들에 대한 응답을 분석하고, 생성된 내용이 실제 데이터와 얼마나 일치하는지 검증했습니다. 또한 도메인 전문가들이 직접 모델 응답을 검토하는 정성적 평가도 병행했습니다. 해결 방안으로는 RAG(Retrieval-Augmented Generation) 시스템을 적극 활용했습니다. VectorDB와 GraphDB에 신뢰할 수 있는 내부 문서와 검증된 데이터를 저장하고, LLM이 응답을 생성할 때 반드시 이 데이터베이스를 참조하도록 설계했습니다. 이를 통해 모델이 학습 데이터에만 의존하지 않고 실제 문서에 기반한 답변을 생성하도록 유도했습니다. 추가로 응답 생성 시 신뢰도 점수를 함께 제공하도록 하여, 불확실한 정보에 대해서는 사용자에게 명확히 알려주는 방식을 채택했습니다. 정기적인 모델 성능 모니터링과 피드백 루프를 통해 지속적으로 할루시네이션 발생률을 개선하고 있습니다.
[질문] AI 프로젝트에서 비즈니스 효과나 KPI는 어떤 방식으로 측정하셨나요?
OpenShift AI를 활용해 모델의 버전 관리, 배포, 모니터링까지 일괄적으로 관리할 수 있는 실제 사례가 있다면 소개해 주세요.
모델의 예측 결과에 대한 설명 가능성이나 감사 기능도 OpenShift AI 내에서 제공되나요? 금융이나 의료 같이 규제가 엄격한 환경에서 유용할 것 같아 여쭤봅니다.
[질문] OpenShift AI를 통해 모델 학습과 서빙까지의 파이프라인을 구성할 때, 학습 단계에서 사용하는 대용량 데이터셋이 클러스터 외부 스토리지에 존재할 경우 어떤 방식으로 연결하고 처리하나요?
Kubernetes/OpenShift 환경의 PV/PVC를 통해 스토리지를 연결할 수 있고, S3 스토리지의 경우에도 역시 Connection란 것을 생성하여 활용할 수 있습니다.
[질문]OpenShift AI로 기존 보안솔루션의 악성코드탐지등의 취약점을 보완하는것도 가능한가요?
AI 개발팀 외에도 DevOps나 인프라팀이 같이 협업했을 텐데, 팀 간 역할 분담은 어떻게 이루어졌는지 궁금합니다.
OpenShift AI를 도입하면서 가장 큰 변화는 AI 개발팀이 인프라 의존도를 크게 줄일 수 있었다는 점입니다. 기존에는 개발 환경 구성이나 GPU 자원 할당, 네트워크 설정 등을 위해 인프라팀과 지속적인 협의가 필요했는데, OpenShift AI의 셀프서비스 기능 덕분에 개발자들이 직접 필요한 환경을 구성하고 관리할 수 있게 되었습니다. 플랫폼이 제공하는 템플릿과 자동화된 워크플로우를 활용해, AI 개발자들이 JupyterLab 환경을 즉시 생성하고 필요한 컴퓨팅 리소스를 직접 할당받을 수 있었습니다. 모델 학습에 필요한 GPU 자원도 웹 인터페이스를 통해 간단히 요청하고 사용할 수 있어, 별도의 인프라 전문 지식 없이도 개발에 집중할 수 있었습니다. 특히 컨테이너화된 환경과 GitOps 방식의 배포 프로세스 덕분에, AI 개발팀이 직접 모델을 패키징하고 배포까지 수행할 수 있었습니다. CI/CD 파이프라인도 플랫폼에서 제공하는 기능을 활용해 개발팀이 자체적으로 구성했습니다. 물론 초기 플랫폼 구축과 기본 인프라 설정은 전문팀의 도움이 필요했지만, 일단 환경이 구축된 후에는 AI 개발팀이 독립적으로 전체 개발 라이프사이클을 관리할 수 있었습니다. 이로 인해 개발 속도가 향상되고 팀 간 의존성으로 인한 병목현상이 크게 줄어들었습니다.
[질문] OpenShift AI가 제공하는 DevOps 툴체인과의 연계는 AI 모델 개발 주기를 어떻게 단축시키나요?
애플리케이션의 빌드배포 과정의 단순 반복적인 작업을 자동화 하듯이, AI 모델 개발간의 단순 반복적인 작업(모델 학습, 모델 배포, 모델 저장 등)을 자동화 할 수 있습니다.
오늘 사례처럼 AI를 대규모로 운영하려면 어느 정도의 조직 구성이나 인력 역량이 필요한지도 궁금합니다. 특히 중견기업 입장에서 도입 시 어떤 준비가 필요할까요?
저희는 실제로 10명 내외의 팀으로 AI 서비스를 개발부터 운영까지 전체적으로 소화하고 있습니다. OpenShift AI 같은 통합 플랫폼을 활용하면 대규모 조직 없이도 충분히 엔터프라이즈급 AI 시스템을 구축하고 운영할 수 있다는 것을 경험했습니다. 중견기업 입장에서는 먼저 핵심 역량을 갖춘 소규모 팀을 구성하는 것이 중요합니다. 저희 팀의 경우 AI/ML 엔지니어, 데이터 엔지니어, 백엔드 개발자로 구성되어 있으며, 각자가 여러 역할을 겸하고 있습니다. 플랫폼이 많은 인프라 작업을 자동화해주기 때문에 전담 인프라 엔지니어 없이도 운영이 가능했습니다. 준비 측면에서는 기술 역량보다 학습 의지와 협업 문화가 더 중요했습니다. 팀원들이 새로운 플랫폼과 도구에 빠르게 적응하고, 서로의 영역을 이해하며 협력하는 자세가 필수적입니다. 특히 개발자들이 MLOps 개념을 이해하고 GitOps 기반의 워크플로우에 익숙해지는 것이 중요합니다. 또한 단계적 접근이 효과적입니다. 처음부터 모든 기능을 활용하려 하지 말고, 작은 파일럿 프로젝트부터 시작해 점진적으로 확장하는 것을 권합니다. 저희도 처음에는 간단한 모델 하나로 시작해서 현재의 복잡한 멀티 LLM 시스템까지 발전시켰습니다.
Redhat OpenShift AI에 사용되는 AI 모델은 무엇인지요?
OpenShift AI가 직접 사용하는 base 모델을 가지는 것은 아닙니다. 기업에서 사용하는 범용적인 AI모델을 효율적으로 사용하도록 지원하고 있습니다.
Red Hat OpenShift AI는 별도로 내장하고 있는 AI 모델이 있지는 않습니다. 사용자가 다양한 오픈 소스 모델 혹은 상용 모델을 가져와서 실행/학습 및 배포 할 수 있도록 설계된 MLOps 플랫폼입니다.
[질문] 이 기종의 AI를 활용시에 호환성이나 충돌 문제를 사전에 감지하거나 위험 요소를 제거할 수 있는 방안이나 서비스는 무엇이 있나요?
현재 시장에 나와 있는 다른 AI/ML 플랫폼들과 비교했을 때 Red Hat OpenShift AI만의 차별점이나 강점이 있다면 무엇일지요?
Red Hat OpenShift AI의 가장 큰 차별점은 엔터프라이즈 환경에 최적화된 통합성과 유연성입니다. 다른 플랫폼들이 특정 클라우드 벤더에 종속적이거나 제한된 도구만 지원하는 반면, OpenShift AI는 하이브리드 클라우드 환경에서 자유롭게 운영할 수 있습니다. 온프레미스, 프라이빗 클라우드, 퍼블릭 클라우드를 넘나들며 일관된 경험을 제공한다는 점이 큰 장점이었습니다. 오픈소스 기반이라는 점도 중요한 강점입니다. 벤더 종속성 없이 다양한 ML 프레임워크와 도구를 자유롭게 선택하고 통합할 수 있었습니다. TensorFlow, PyTorch, Scikit-learn 등 원하는 프레임워크를 제약 없이 사용하면서도, 통합된 MLOps 파이프라인의 이점을 누릴 수 있었습니다. 보안과 거버넌스 측면에서도 차별화됩니다. 기업 환경에서 요구되는 엄격한 보안 요구사항과 컴플라이언스를 충족하면서도, 개발자 생산성을 해치지 않는 균형을 잘 맞추고 있습니다. 특히 민감한 데이터를 다루는 프로젝트에서 역할 기반 접근 제어와 감사 로그 기능이 매우 유용했습니다. 무엇보다 Kubernetes 네이티브 환경이라는 점이 큰 강점입니다. 이미 Kubernetes를 사용하고 있던 조직이라면 기존 인프라와 운영 노하우를 그대로 활용할 수 있고, 컨테이너 기반의 확장성과 이식성을 자연스럽게 확보할 수 있습니다. 이는 장기적인 기술 전략 측면에서 매우 중요한 이점이었습니다.
AWS SageMaker나 Google Vertex AI 같은 클라우드 기반 AI 플랫폼과 비교했을 때, OpenShift AI만의 핵심 경쟁력은 무엇이라고 보시나요?
개발자와 운영자 간의 협업을 촉진하기 위해 Red Hat OpenShift AI가 제공하는 기능이나 도구에는 어떤 것들이 있나요?
기존 ITSM 체계나 보안 거버넌스와 통합하는 데 있어 어떤 방식으로 유연하게 대응하셨는지 궁금합니다.
AI 모델의 공정성이나 편향성을 체크하고 개선할 수 있는 기능도 플랫폼 내에서 제공되나요?
Red Hat OpenShift AI의 강력한 장점 중 하나는 오픈소스 생태계를 자유롭게 활용할 수 있다는 점입니다. 모델의 공정성과 편향성 검증을 위해 다양한 오픈소스 도구들을 플랫폼 내에서 직접 통합하여 사용할 수 있습니다. 예를 들어, Fairlearn이나 AI Fairness 360 같은 오픈소스 라이브러리를 JupyterLab 환경에 설치하고 즉시 활용할 수 있었습니다. 이러한 도구들을 통해 모델의 예측 결과가 특정 그룹에 대해 편향되지 않았는지 정량적으로 측정하고, 필요시 모델을 재조정할 수 있었습니다. 플랫폼이 특정 도구를 강제하지 않기 때문에, 프로젝트 특성에 맞는 최적의 도구를 선택할 수 있는 자유도가 높았습니다.
OpenShift AI 기반의 MLOps 구축을 PoC로 시작해서 본격적인 운영까지 전환하는 데 보통 어느 정도 기간이 소요되나요?
저희의 경우 PoC에서 본격적인 운영까지 약 6개월 정도 소요되었습니다. 처음 2개월은 PoC 단계로, 단일 모델을 활용한 간단한 시나리오로 플랫폼의 기능을 검증했습니다. 이 기간 동안 팀원들이 OpenShift AI 환경에 익숙해지고, 기본적인 MLOps 파이프라인을 구축하는 데 집중했습니다. 다음 2개월은 파일럿 단계였습니다. PoC에서 검증한 내용을 바탕으로 실제 업무에 적용할 수 있는 수준으로 확장했습니다. 이 시기에 IBM Granite와 OpenAI ChatGPT를 통합하고, RAG 시스템의 기초를 구축했습니다. 동시에 CI/CD 파이프라인을 정교화하고 모니터링 체계를 확립했습니다. 마지막 2개월은 프로덕션 준비 단계였습니다. 성능 최적화, 보안 강화, 확장성 테스트 등을 진행하면서 운영 환경에 필요한 모든 요소들을 점검했습니다. 특히 VectorDB와 GraphDB를 활용한 고도화된 RAG 시스템 구축과 다중 모델 오케스트레이션 구현에 시간을 투자했습니다. 전체적으로 보면 플랫폼이 제공하는 템플릿과 자동화 기능 덕분에 예상보다 빠르게 진행할 수 있었습니다. 특히 개발 환경 구성이나 배포 프로세스 구축에 소요되는 시간이 크게 단축되어, 실제 AI/ML 로직 개발과 최적화에 더 많은 시간을 할애할 수 있었던 것이 주효했습니다.
AutoML 기능은 기본 제공되나요? 아니면 별도 플러그인이 필요한가요?
OpenShift AI도 초기 학습이 필요할 것 같고 그리고 오류 체크를 위해서 누군가 지속적으로 학습을 시켜 줘야 하는지요?
AI 모델 운영 과정에서 공정 조건 변화나 계절성 등의 요인으로 인한 성능 저하 이슈는 어떻게 대응하고 계신가요? 이를 위한 모델 모니터링이나 재학습 전략이 궁금합니다.
싸이웰시스템이 구축한 MLOps 파이프라인은 어떤 구성요소로 이루어졌나요? 데이터 파이프라인, 모델 관리, 서빙 자동화 등에서 Red Hat OpenShift AI의 어떤 기능을 활용하셨는지도 궁금합니다.
저희가 구축한 MLOps 파이프라인은 크게 데이터 처리, 모델 학습/관리, 서빙, 모니터링의 네 가지 핵심 구성요소로 이루어져 있습니다. 데이터 파이프라인에서는 OpenShift AI의 데이터 사이언스 파이프라인 기능을 활용했습니다. Kubeflow Pipelines 기반으로 데이터 수집, 전처리, 특성 추출 과정을 자동화했습니다. 특히 RAG 시스템을 위한 문서 처리와 벡터화 작업을 파이프라인으로 구성해, 새로운 데이터가 들어오면 자동으로 VectorDB와 GraphDB에 저장되도록 설계했습니다. 모델 관리 측면에서는 Model Registry를 통해 버전 관리를 체계화했습니다. IBM Granite와 OpenAI ChatGPT 모델의 파인튜닝 버전들을 추적하고, 각 버전의 성능 메트릭을 함께 저장했습니다. A/B 테스트를 위한 모델 버전 관리도 이를 통해 수행했습니다. 서빙 자동화는 OpenShift AI의 모델 서빙 기능을 최대한 활용했습니다. KServe를 통해 모델을 REST API로 자동 배포하고, 오토스케일링을 설정해 트래픽에 따라 자동으로 확장되도록 구성했습니다. 멀티 모델 서빙을 위해 모델 앙상블 기능도 활용했는데, 이를 통해 여러 LLM의 응답을 조합하여 최적의 결과를 제공할 수 있었습니다. 모니터링은 Prometheus와 Grafana를 통합하여 구축했습니다. 모델의 추론 속도, 정확도, 리소스 사용량 등을 실시간으로 추적하고, 이상 징후 발견 시 자동으로 알림을 받도록 설정했습니다. 특히 모델 드리프트 감지 기능을 추가해 성능 저하를 사전에 파악할 수 있었습니다.
OpenShift Data Science와 OpenShift AI는 어떤 차이가 있나요?
기존 OpenShift Data Science을 보다 발전시켜서 Red Hat OpenShift AI 명칭으로 변경되었습니다.
[질문] AI 모델의 지속적 배포(CI/CD) 환경에서 OpenShift가 지원하는 모델 버전 관리 및 롤백 전략은 무엇인가요?
[질문] Red Hat OpenShift AI 플랫폼의 아키텍처는 어떻게 구성되어 있으며, 이 아키텍처가 AI 솔루션의 확장성과 유연성에 어떤 영향을 미치는지 설명해 주실 수 있나요?
[질문] MLOps의 구현 과정에서 발생할 수 있는 주요 장애물은 무엇이며, 이러한 장애물을 극복하기 위한 전략은 어떤 것들이 있는지 구체적으로 설명해 주실 수 있나요?
쿠버네티스 CRD 기반 커스터마이징이 필요한 경우 어느 수준까지 가능하나요?
제조업에서는 AI 시스템의 실시간성, 안정성이 중요한데요, OpenShift AI 기반 시스템이 실시간 추론에 충분히 대응 가능한지 궁금합니다.
AI 플랫폼을 기업 내에 도입할 때 가장 먼저 고려해야 할 조직적/기술적 요소는 무엇인가요?
OpenShift AI 외에 추가적으로 어떤 오픈소스 도구나 프레임워크를 함께 사용하고 계신지도 궁금합니다.
공장 내 보안 요건이나 폐쇄망 환경에서 OpenShift AI를 구축하셨다면, 오프라인 환경에서도 충분히 구축 및 운영이 가능한지요?
오프라인 환경에서도 OpenShift AI 구축 및 운영이 가능하고 기반이 되는 OpenShift의 경우에는 많은 국내 기업의 오프라인 환경에서 안정적으로 운영중에 있습니다.
내부 개발 인력만으로 플랫폼을 성공적으로 운영하기 위해 필요한 최소 인력은 몇 명 정도인가요?
저희 경험상 5-6명이 최소 인력이라고 봅니다. 실제로 저희는 10명 내외로 운영하고 있지만, 핵심 역할만 놓고 보면 더 적은 인원으로도 가능했습니다. 필수 인력 구성은 이렇습니다. AI/ML 엔지니어 2명이 모델 개발과 최적화를 담당하고, 데이터 엔지니어 1명이 데이터 파이프라인과 RAG 시스템의 데이터 처리를 맡았습니다. 백엔드 개발자 2명은 API 개발과 시스템 통합을 담당하면서 동시에 MLOps 파이프라인 구축도 함께 수행했습니다. 추가로 1명이 모니터링과 운영 업무를 전담했습니다. 중요한 건 각자가 여러 역할을 수행할 수 있어야 한다는 점입니다. 저희 팀의 경우 AI 엔지니어가 데이터 전처리도 할 수 있고, 백엔드 개발자가 간단한 모델 배포도 처리할 수 있었습니다. OpenShift AI가 많은 작업을 자동화해주기 때문에 이런 멀티롤이 가능했습니다. 초기에는 5-6명으로 시작해서 서비스가 안정화되고 규모가 커지면서 점진적으로 인력을 추가하는 것이 현실적입니다. 저희도 처음에는 6명으로 시작했다가 서비스 고도화와 운영 안정성 강화를 위해 현재 규모로 확대했습니다. 플랫폼의 자동화 기능을 잘 활용하면 소규모 팀으로도 충분히 엔터프라이즈급 AI 서비스를 개발하고 운영할 수 있다는 것이 핵심입니다.
OpenShift AI 수행 시 여러 이해관계자 간 협업을 최적화하기 위한 프로세스는 어떻게 설계해야 하며, 이를 효과적으로 운영하기 위한 방안은 무엇인가요?
향후 싸이웰시스템에서 OpenShift AI를 활용한 AI 솔루션을 다른 산업 분야나 고객사에 확장할 계획이 있으신가요? 예를 들어 엣지 AI, 비전 검사, 에너지 효율화 같은 영역도 고려 중인지?.
싸이웰시스템은 다양한 AI 솔루션 및 서비스를 준비하고 있으며, 이 모든 솔루션과 서비스 개발에 대한 인프라를 OpenShift AI를 활용할 예정입니다.
AI 프로젝트는 어떤 부서나 직무 중심으로 추진되었나요? 특히 현장 엔지니어, 데이터팀, 인프라팀 간의 협업 체계는 어떻게 운영되었는지 궁금합니다.
고객사들은 실제 AI 솔루션을 어떻게 받아들이고 있나요? 기술보다 결과 중심으로 설명하고 납득시키는 과정에서 특별히 고려하신 점이 있나요?
[질문] 기업이 AI 도입을 고려할 때, 데이터 수집 및 전처리 과정에서 가장 중요한 요소는 무엇이며, 이를 효과적으로 관리하기 위한 방법은 무엇인지 말씀해 주실 수 있나요?
[질문] Red Hat OpenShift AI를 사용한 실제 사례에서, AI 모델의 성능을 개선하기 위해 어떤 메트릭을 사용했는지, 그리고 그 결과는 어땠는지 구체적으로 설명해 주실 수 있나요?
[질문] AI 모델의 배포 후 성능 모니터링을 위해 어떤 도구와 기법을 사용하며, 이를 통해 얻은 인사이트가 기업의 의사결정에 어떻게 기여했는지 설명해 주실 수 있나요?
향후 챗봇 인터페이스, 자연어 기반 분석 등 비정형 데이터를 활용한 AI 확장도 고려하고 계신가요?
RedHat OpenShift기반 AI의 시장점유율이 어떻게 되는지 궁금합니다.
[질문] Red Hat OpenShift AI 플랫폼에서 제공하는 데이터 시각화 도구의 기능은 무엇이며, 이를 통해 기업이 얻는 인사이트는 어떤 것들이 있는지 구체적으로 설명해 주실 수 있나요?
[질문] AI 모델의 성능을 개선하기 위한 하이퍼파라미터 튜닝 과정에서 어떤 기법을 사용하며, 이 과정에서의 주요 고려사항은 무엇인지 설명해 주실 수 있나요?
[질문] AI 기술의 발전이 향후 5년 내에 기업의 비즈니스 모델에 미치는 잠재적인 영향은 무엇이며, 기업이 이에 대비하기 위해 어떤 전략을 세워야 하는지 설명해 주실 수 있나요?
시간이 후따닥 가네요.. ㄷㄷ
그만큼 세션 내용이 좋아서이지 않을까 싶네요. 시청해 주셔서 감사합니다. 설문조사에 꼭 참여 부탁드립니다!
[질문] AWS나 Azure에서 Red Hat OpenShift AI 사용시 구독료에 대해 유의해야 할 사항은 무엇일까요?
9. [질문] AI 솔루션 개발 시 팀 간의 협업을 촉진하기 위한 구체적인 방법론이나 도구는 무엇이며, 이를 통해 얻은 성과는 어떤 것들이 있는지 말씀해 주실 수 있나요?
시간 상 답변드리지 못한 내용은 메일을 통해 문의주시면 언제든 답변드리겠습니다. 메일주소 : [email protected]
글고 마지막으로 이것도 궁금합니다. ㄷ, Red Hat OpenShift AI의 커스터마이징 가능성에 대해 설명해 주실 수 있으며, 이를 통해 기업이 얻을 수 있는 이점은 무엇인지 말씀해 주실 수 있나요? 발표 감사합니다. Thumbs up.
[질문] OpenShift AI에서 제공하는 사용자 인터페이스나 CLI 도구들이 개발자뿐 아니라 비전문가나 데이터 분석가에게도 접근성을 제공하기 위해 어떤 기능적 또는 시각적 설계가 포함되어 있나요?
[질문]Red Hat OpenShift AI에 AI hub Privacy는 AI 에이전트와 RAG를 통합하여 발전시킨 솔루션인지요? AI 에이전트롸 RAG 통합으로 정확도를 얼마나 향상이 가능했는지요?
모델의 버전 관리나 실험 추적 기능은 어떤 도구 기반으로 제공되나요? 오픈소스 도구와의 연계도 가능한가요? 또한, 이러한 도구들과의 통합이 얼마나 원활하게 이루어지는지 궁금합니다. 예를 들어, 데이터 파이프라인과의 호환성이나 자동화된 워크플로우 설정이 가능한지 알고 싶습니다.
[질문] 다양한 환경에서 동일한 MLOps 파이프라인을 반복적으로 사용할 때, OpenShift AI에서는 이를 템플릿화하거나 코드 재사용을 용이하게 하기 위한 기능이 있나요?
아쉽네요. 다음엔 참여하겠습니다
신청했습니다.