머신러닝 16

[MLOps] MLOps의 핵심요소와 컴포넌트, end-to-end 아키텍처

안녕하세요. 마인즈앤컴퍼니입니다. 오늘은 MLOps에 대한 핵심 요소와 구성 컴포넌트, 아키텍처에 대해 잘 정리된 논문이 있어서 소개해 드리려고 합니다. “Machine Learning Operations (MLOps): Overview, Definition, and Architecture” 라는 제목의 논문이며 2022년도에 arXiv에서 퍼블리싱 했습니다. https://arxiv.org/ftp/arxiv/papers/2205/2205.02302.pdf 본 글을 통해 머릿속에 추상적으로 머물러 있던 MLOps의 개념이 어느정도 실체화 될 수 있을거라고 생각합니다. MLOps의 핵심 요소와 컴포넌트 그리고 end-to-end 아키텍처 작성: 마인즈앤컴퍼니 함명호 상무 ML은 데이터의 기반하여 비즈니스를..

AI 솔루션/MLOps 2022.06.23

[MLOps] MLOps 이해와 플랫폼 소개

안녕하세요 마인즈앤컴퍼니입니다. MLOps에 대하여 여러분들께서는 얼마나 알고 계신가요? 오늘은 소프트웨어의 빈번한 변화와 배포에 대응하는 프로세스의 향상을 도모하며, 개발과 운영 사이의 갭을 줄이는 도구로 사용되는 DevOps 기반의 소프트웨어 개발 방법과 함께 ML 모델 개발 전 과정의 프로세스를 통합하는 방법인 MLOps에 대하여 알아보겠습니다! MLOps 의 이해와 대표적인 MLOps 플랫폼 소개 작성: 마인즈앤컴퍼니 함명호 상무 AI 기술의 발전에 따라 최근 많은 소프트웨어 제품이나 서비스들은 AI를 결합하는 형태로 발전하고 있습니다. 이에 따라 소프트웨어 개발 프로세스에도 많은 변화가 생겼는데 1. 데이터를 분석하고 정제하는 과정 2. 정제된 데이터로 예측값을 도출해 내기 위한 모델을 만드는 ..

AI 솔루션/MLOps 2022.06.09

AI EXPO 2022에 다녀왔습니다.

안녕하세요. 마인즈앤컴퍼니입니다. 마인즈앤컴퍼니의 멤버들은 국내외 인공지능 최신 트렌드와 기술에 아주 관심이 많은데요. 2022년 4월 13일부터 15일까지 코엑스에서 열린 에 참관하게 되었습니다. 인공지능 최신 기술을 직접 체험해보고, 다양한 AI 비즈니스 모델에 대해 직접 관계자에게 생생한 얘기를 들을 수 있었던 시간이었습니다. 대규모 인공지능 전문 전시회인 건 알고 있었지만 직접 가서 보니 훨씬 더 스케일이 크고 웅장하더라구요. 시간 가는 줄도 모르고 즐겁게 구경했던 후기와, 개인적으로 인상깊었던 기업과 제품을 간략히 소개해드리려고 합니다. 입구부터 화려한 AI EXPO, 이른 시간이었음에도 많은 사람들이 이미 와서 구경중이었습니다. 참가기업 중에는 저희와 인연을 맺었던 기업도 있어 내적 반가움을 ..

MNC Inside 2022.04.26

[RL] 1-1. 강화학습이란?

안녕하세요. 마인즈앤컴퍼니 (이하 MNC) 입니다. :-) MNC의 새로운 'RL' 시리즈를 소개드립니다. 테크리더 명대우 파트너님의 지도 아래, MNC 의 Data scientist 인 최창윤 매니저가 뜻을 모아 강화학습에 대해 연구를 진행하고 있습니다. 몇년 전부터 강화학습에 대한 공부를 해왔지만 내용을 정리하지 않아 다시 공부하는 경우가 많았는데요! 이번 연구를 진행하면서 정리할 필요성을 느꼈고, 해당 내용들을 블로그에 공유드리기로 하였습니다. 연구 배경 해당 연구는 딥러닝 비전 검사 기술을 로봇 팔과 접목하여 실제 산업에 적용하기 위해 진행하게 되었습니다. 바닥과 닿아있는 부분이나 복잡한 물체는 카메라로 촬영할 수 없는 영역이 존재하고 이러한 상황에서도 제품을 효과적으로 검사하기 위해 그리퍼가 달..

[캐글탐험대] PetFinder 대회 (2편)

안녕하세요. 1편에 이어 Kaggle Petfinder 대회 수상후기와 인사이트를 정리해드리려고 합니다! 저번 편에서 Transformer 모델에 대해서 소개해 드렸는데요, 이번 편에서는 Multi-head 모델과 BCE Loss 를 활용하여 학습했던 이야기를 해보려고 합니다. Insight 2 - Multi-head model is powerful! 그리스 신화에 나오는 케르베로스처럼, 하나의 몸에 여러 개의 머리가 달린 모델을 만들면 더 강력하지 않을까요? 실제로 이번 대회에서는 하나의 backbone (feature extractor)에 5개의 Head (predictor)를 붙여 사용했습니다. 이와 같은 Multi-head 모델을 4개 사용해서, 총 20개의 Head의 예측 결과를 앙상블 했습니다..

[캐글탐험대] PetFinder 대회 (1편)

안녕하세요. 마인즈앤컴퍼니에서는 2021년 9월부터 2022년 1월까지 개최된 Kaggle PetFinder Pawpularity Competition에 참여해 3,537팀 중 97등 (Top 3%)로 은메달을 따냈습니다! 이번 레포트에서는 PetFinder Competition에 참여하면서 얻을 수 있었던 몇 가지 흥미로운 인사이트들을 공유하려고 합니다. 캐글 대회에 참여하고자 하는 국내 많은 데이터 사이언티스트들에게 도움이 되었으면 합니다. 그럼 시작하겠습니다! 대회 소개 A picture is worth a thousand words. But did you know a picture can save a thousand lives? 이번 대회는 보호소와 구조 단체에서 보호되고 있는 애완 동물을 입양할..

[ML101]#9. 차원 축소(1)

이번 글에서 다룰 주제는 지금까지 공부했던 방법론들과는 조금 다른 목적을 가진 방법론을 다루고자 합니다. 그 주인공은 바로 "차원 축소(Dimesionality Reduction)"입니다. 차원 축소란 쉽게 이야기하면 중요한 변수들을 취하여 우리가 다루는 변수의 수를 줄이는 프로세스입니다. [ML101-#1. Machine Learning?] 을 통해 차원 축소에 대해서 개괄적으로 소개를 해드렸는데요, 조금 더 자세히 살펴보도록 하겠습니다. 차원이란 무엇일까요? 이미 앞선 글들을 통해 계속 공부해오셨다면 쉽게 받아들이시고 있으실 거라고 생각됩니다. 차원이란 변수, 피처(feature), 열(column)과 같은 의미로 이해하시면 됩니다. 그렇다면 이 차원을 왜 축소시켜야 하는 것일까요? 반대로, 차원이 ..

AI Study/ML101 2022.04.26

[ML101]#8.Clustering (2)

지난글에서는 대표적인 Unsupervised learning 모델의 하나인 clustering의 개요, 유형에 대해 알아봤습니다. 이번 글에서는 clustering의 대표적인 모델인 K-means clustering / Mean-shift clustering / DBSCAN (Density-based spatial clustering of applications with noise) / EM clustering using Gaussian mixture 에 대해서 좀 더 자세히 알아보고자 합니다. 1. K-means clustering K-means clustering은 대표적인 분할 군집 기법입니다. 군집 별로 centroid (중심)을 가지고 있으며, centroid에 가까운 data들 끼리 묶어 군집..

AI Study/ML101 2022.04.26

[ML101] #7. Clustering (1)

지난 글까지 Regression에 대해 공부했습니다. Regression의 개념과 유형, Regression 모델의 성능을 높이는 데 사용되는 방법, 성능을 측정하는 방식들을 말이죠. 이번 시간부터는 Clustering에 대해 배워볼 예정입니다. [ML101] #1. Machine Learning? 에서 Machine Learning을 크게 Supervised Learning, Unsupervised Learning, Reinforcement Learning 으로 구분할 수 있다는 내용 기억하시나요? 지난 글까지 살펴본 Regression이 Supervised Learning의 대표적인 모델이었다면 오늘부터 살펴볼 Clustering은 Unsupervised Learning의 대표적인 모델입니다. 말 그..

AI Study/ML101 2022.04.26

[ML101] #6. Overfitting

앞의 과정들을 통해 머신러닝이 어떻게 작동하는지 살펴보았습니다. 머신러닝 모델이란 실제 데이터를 대체할 수 있는 모형이고 이러한 모델을 통해 실제 데이터 없이도 현실 세계에서 활용할 수 있습니다. 그런데 이 모델은 정교해지기 위해 복잡하게 만들면 학습한 데이터와 조금만 다른 데이터가 들어와도 큰 오차를 만들 수 있고, 반대의 경우는 변수들과의 관계를 충분히 설명할 수 없게 되는 Trade-off 문제가 발생하게 됩니다. 이러한 문제를 수학적으로 표현한 것이 Bias-Variance(편향-분산) Trade-off 입니다. 조금 더 자세히 알아보겠습니다. Bias-Variance Trade-off 를 설명하는 유명한 그림 중 하나 입니다. 사격 게임을 할 때 가장 높은 점수를 받는 방법은 나에게 주어진 총알..

AI Study/ML101 2022.04.26