챗GPT, 구글의 바드에 이어 메타에서도 "라마"를 발표했네요.
오픈소스로 공개한다는데 나름 기대됩니다.
이하 일부 기사
https://www.hani.co.kr/arti/economy/it/1081238.html
페이스북 운영사 메타가 대규모 인공지능(AI) 언어 모델(LLM·Large Language Model)을 공개했다. 사람처럼 묻고 답하는 챗지피티(GPT) 열풍이 이어지는 가운데, 구글에 이어 메타까지 별도 모델을 들고 뛰어들며 생성형 인공지능 기술을 둘러싼 글로벌 빅테크 기업간 경쟁이 뜨거워지고 있다.
마크 저커버그 메타 최고경영자(CEO)는 25일(현지시각) 자신의 페이스북 계정을 통해, ‘라마(LLaMa.Large Language Model Meta AI)’라는 이름의 대규모 인공지능 언어 모델을 개발자들에게 공개한다고 밝혔다. 저커버그는 “엘엘엠은 텍스트 생성과 대화, 문서 요약부터 수학 정리, 단백질 구조 예측과 같은 더 복잡한 작업에 이르기까지 가능성을 보여줬다. 라마는 연구자들의 업무를 돕기 위해 오픈소스 형태로 제공할 것”이라고 설명했다. 엘엘엠은 사람이 말하고 쓰는 것과 유사한 문장을 생성하는 인공지능 툴로, 챗지피티 같은 서비스를 구동하는 기반이 된다.
가장 눈길을 끄는 대목은 라마를 다른 연구자나 엔지니어들이 이용할 수 있도록 ‘오픈소스’로 공개한다는 것이다. 이는 챗지피티 엔진이랄 수 있는 오픈에이아이의 ‘지피티-3.0’과 구글의 ‘람다’는 소스코드가 공개되지 않는 것과 차별되는 지점이다. 메타는 오픈소스 공개 방침을 밝히며 “인공지능 커뮤니티가 무엇을 배우고 구축할 수 있을지 협력하길 기대한다”고 설명했다.
라마는 엘엘엠에서 가장 중요한 매개변수(파라미터) 수를 70억개, 130억개, 330억개, 650억개 등으로 나눠서 운영할 수 있다. 이는 오픈에이아이(AI) 지피티-3.0의 매개변수 1750억개보다는 적은 숫자다. 매개변수란 인공지능이 정확한 결과 값을 만들기 위해 계산에 고려해야 하는 다양한 변수(가중치·절편)로, 그 수가 클수록 추론 능력이 향상되고 더 정교한 모델이 된다. 다만, 매개변수는 적은 대신 사용 용량이 다른 모델의 10분의 1 수준이라 스마트폰 같은 개인 단말기에서도 활용도가 높아질 수 있다.