이 영역을 누르면 첫 페이지로 이동
가을달 블로그의 첫 페이지로 이동

가을달

페이지 맨 위로 올라가기

[GPT 시리즈 ①] 알파고로 딥러닝까진 들어봤는데 GPT는 뭐에요?

가을달

[GPT 시리즈 ①] 알파고로 딥러닝까진 들어봤는데 GPT는 뭐에요?

  • 2022.05.22 09:48
  • 읽고 보고 들은 것
728x90

Ko-GPT가 최근 회사에서 외부로 공개 되었습니다. Naver의 CLOVA도 다양한 방식으로 외부에 노출될 예정입니다.(이미 Hyper CLOVA도 나왔고) OpenAI에서 2020년 6월에 GPT를 공개한 이후, 많은 플레이어들이 빠르게 GPT 모델을 기반으로 새로운 모델을 출시했습니다. 그러나 이는 업계에서 일어난 큰 변화에 가깝습니다. 일반 대중들에게는 어려운 기술이기 때문에, 이 기술은 학계와 업계 사람들만 환영하는 것일 뿐입니다. 그렇기 때문에, 이 글을 읽는 분들은 꼭 GPT에 대해 알고 가시면 좋을 것입니다. 이는 우리가 더 나은 미래를 대비하는 가장 좋은 방법 중 하나일 것 입니다.

 

 

GPT는 Generative Pre-trained Transformer의 약자로, 한글로는 "생성형 사전 학습 변환기"라고 합니다. 그러나 이것을 이해하기 위해서는 각각을 분리해서 이해해야 합니다.

 

GPT는 자연어 처리 분야에서 가장 인기 있는 모델 중 하나입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, 특히 Transformer의 Decoder 부분을 사용하여 입력된 문장을 처리하고, 새로운 문장을 생성합니다. 이러한 GPT 모델은 대용량 데이터셋을 사용하여 사전 학습된 후, Fine-tuning을 통해 특정 작업에 적용할 수 있습니다.

 

GPT 모델은 자연어 생성 작업에 대한 성능이 우수하며, 다양한 분야에서 사용될 수 있습니다. 예를 들어, 이 모델은 자동 요약, 기계 번역, 질문 응답 시스템, 챗봇 등의 분야에서 적용될 수 있습니다. 또한, GPT 모델은 높은 정확도를 보장하기 위해 대용량 데이터셋을 사용하기 때문에, 이를 위해 많은 컴퓨팅 자원이 필요합니다. 따라서, GPT 모델을 사용하기 위해서는 충분한 하드웨어 자원과 데이터가 필요합니다.

 

실제로 카카오브레인은 대규모 자연어 처리 모델 KoGPT의 개발, 운영에 Google Cloud Platform의 TPU를 이용했습니다.

 

 

 

GPT 모델은 GPT-1, GPT-2, GPT-3과 같은 다양한 버전이 존재합니다. 이들 모델은 사전 학습에 사용된 데이터셋 크기와 학습 파라미터 수 등의 차이로 구분됩니다.

  • GPT-1은 2018년에 발표된 초기 버전으로, 대략 117백만 개의 파라미터로 구성되어 있습니다. 이 모델은 사전 학습 데이터셋으로부터 다양한 문장을 생성하는 데에 사용될 수 있습니다. (논문)
  • GPT-2는 GPT-1보다 파라미터 수가 약 10배 정도 높은 모델로, 2019년에 발표되었습니다. 이 모델은 자연어 생성 분야에서 매우 뛰어난 성능을 보이며, 다양한 응용 분야에서 사용될 수 있습니다. (논문)
  • GPT-3는 GPT-2보다 파라미터 수가 약 100배 이상 높은 모델로, 2020년에 발표되었습니다. 이 모델은 자연어 생성 능력이 매우 뛰어나며, 대용량 데이터셋을 사용하여 사전 학습된 모델로, 다양한 자연어 처리 분야에서 사용될 수 있습니다. (논문)

따라서, GPT 모델은 자연어 처리 분야에서 매우 뛰어난 성능을 보이는 모델이며, GPT-1부터 GPT-3까지 다양한 버전이 존재합니다. 이들 모델은 각각 파라미터 수와 성능 등에서 차이가 있으며, 다양한 응용 분야에서 사용될 수 있습니다.

 

그런데 Transformer는 뭘까요? 무엇을 변환한다는 것일까요? 이것을 이해하기 위해서는 Transformer와 Token에 대해 알아야 합니다. 다음 글은 해당 내용에 대해 이야기 해보겠습니다.

728x90
이 글은 (새창열림) 본 저작자 표시, 비영리, 동일 조건 변경 허락 규칙 하에 배포할 수 있습니다. 자세한 내용은 Creative Commons 라이선스를 확인하세요.
본 저작자 표시
비영리
동일 조건 변경 허락

'읽고 보고 들은 것' 카테고리의 다른 글

2022년 6월 시장 전망에 대한 잡설  (1) 2022.05.31
5월의 책 추천: 노필터, 언카피어블, 실리콘벨리의 위대한 코치  (0) 2022.05.23
가상화폐 시장에 대한 단상 : 그래서 벌었어요?  (1) 2022.05.13
다들 동의 했는데 왜 나중에 딴 말을 할까? | 애빌린 패러독스  (0) 2022.05.05
암호화폐를 투자하고 있다고 생각하는 당신에게  (1) 2020.11.16

댓글

댓글을 사용할 수 없습니다.

이 글 공유하기

  • 구독하기

    구독하기

  • 카카오톡

    카카오톡

  • 라인

    라인

  • 트위터

    트위터

  • Facebook

    Facebook

  • 카카오스토리

    카카오스토리

  • 밴드

    밴드

  • 네이버 블로그

    네이버 블로그

  • Pocket

    Pocket

  • Evernote

    Evernote

다른 글

  • 2022년 6월 시장 전망에 대한 잡설

    2022년 6월 시장 전망에 대한 잡설

    2022.05.31
  • 5월의 책 추천: 노필터, 언카피어블, 실리콘벨리의 위대한 코치

    5월의 책 추천: 노필터, 언카피어블, 실리콘벨리의 위대한 코치

    2022.05.23
  • 가상화폐 시장에 대한 단상 : 그래서 벌었어요?

    가상화폐 시장에 대한 단상 : 그래서 벌었어요?

    2022.05.13
  • 다들 동의 했는데 왜 나중에 딴 말을 할까? | 애빌린 패러독스

    다들 동의 했는데 왜 나중에 딴 말을 할까? | 애빌린 패러독스

    2022.05.05
다른 글 더 둘러보기

정보

가을달 블로그의 첫 페이지로 이동

가을달

  • 가을달의 첫 페이지로 이동
250x250

검색

메뉴

  • 🏠 홈
  • 💁‍♂️ 글쓴이
  • 👍 페이스북
  • ❤ 인스타그램

카테고리

  • 분류 전체보기 (91)
    • 프로젝트 매니지먼트 (31)
    • 커리어와 진로 (7)
    • 일상에서 영감찾기 (23)
    • 읽고 보고 들은 것 (17)
    • 사고 먹고 마시고 삼킨 것 (2)
    • 지극히 사적인 이야기 (9)

인기 글

정보

이해봄의 가을달

가을달

이해봄

공지사항

  • 공지 - 가을달 블로그 탄생 이유

블로그 구독하기

  • 구독하기
  • 네이버 이웃 맺기
  • RSS 피드

티스토리

  • 티스토리 홈
  • 이 블로그 관리하기
  • 글쓰기

나의 외부 링크

  • 자기소개
Powered by Tistory / Kakao. © 이해봄. Designed by Fraccino.

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.