반응형
1. 요약
- 대한민국 정부가 주도한 독자 AI 파운데이션 모델 개발 프로젝트의 1차 평가에서는 독자성, 성능, 비용 효율성, 생태계 파급력을 평가 기준으로 삼았습니다. 총 5개 팀이 참여한 이번 평가에서 LG AI연구원의 K-EXAONE 모델이 평균 72점의 최고 벤치마크 점수를 기록하며 1위를 차지했고, SK텔레콤과 업스테이지가 2차 평가에 진출하였습니다. 반면 네이버클라우드와 NC AI는 독자성 미흡과 기술 완성도 부족으로 탈락하였습니다.
- 이번 평가 과정은 국내 AI 기술의 독립성과 생태계 진흥을 목표로 하였으나, 오픈소스 활용 범위와 공정성 논란이 제기되어 향후 평가 기준과 정책 수립에 중요한 과제로 남았습니다. 본 리포트는 기술적 성과와 논란을 균형 있게 분석하며, 앞으로 국내 AI 산업의 지속 가능한 경쟁력 확보를 위한 방향성을 제시합니다.

2. 서론
- 대한민국이 주도하는 독자 AI 파운데이션 모델 개발 프로젝트는 글로벌 AI 경쟁에서 국가 기술 주권 확보를 위한 중대한 도전입니다. 그러나 1차 평가에서 네이버클라우드와 NC AI의 탈락이라는 예상 밖 결과가 발표되며, 국내 AI 산업의 현주소와 미래 방향에 대한 관심과 논쟁이 집중되고 있습니다.
- 본 프로젝트는 해외 모델 미세조정이 아닌 완전 독자적 설계와 학습, 비용 효율성, 산출물의 생태계 파급력 등 다각적 기준을 세워 평가를 진행하였으며, 이번 평가 결과는 국내 AI 기술 독립성의 성과와 한계, 나아가 정책적 함의를 가늠하는 중요한 계기가 되었습니다.
- 이 리포트는 1차 평가의 개요와 결과를 소개하는 것부터 시작해, 참여 팀별 기술 역량 및 독자성 분석, 이와 함께 불거진 공정성 논란과 정책적 시사점을 종합적으로 다룹니다. 이를 통해 대한민국 AI 파운데이션 모델 사업의 성과와 도전 과제를 객관적으로 조명하며, 미래 전략 수립에 실질적 인사이트를 제공합니다.
3. 1차 평가 개요 및 결과
- 정부가 추진한 대한민국 독자 AI 파운데이션 모델 개발 프로젝트의 1차 평가가 최근 완료되어 주요 결과가 발표되었습니다. 본 평가에서는 총 5개 팀이 참여했으며, 이들 팀은 네이버클라우드, NC AI, LG AI연구원, SK텔레콤, 업스테이지로 구성되어 있습니다. 이 섹션에서는 각 팀의 평가 대상과 평가 항목, 배점 체계, 그리고 1차 평가의 결과를 종합적으로 살펴봄으로써 해당 프로젝트의 현황을 이해하는 데 기초 정보를 제공합니다.
- 5개 참여 팀은 독자적으로 개발한 AI 모델을 출품했으며, 이 모델들의 평가는 크게 세 가지 항목으로 이루어졌습니다. 첫째, AI 모델의 성능을 객관적으로 판단하기 위한 벤치마크 테스트가 시행되었습니다. 둘째, 전문가의 질적 평가를 통해 기술적 완성도와 개발 과정의 독자성 등이 심층 검증되었습니다. 셋째, 실제 사용자 평가를 포함해 사용성 및 실효성을 다각도로 측정하였습니다. 각각의 평가 항목에는 명확한 배점 체계가 적용되어, 이를 바탕으로 최종 성적이 산출되었습니다.
- 3-1. 참여 팀과 평가 배점 체계
- 본 프로젝트 1차 평가는 네이버클라우드, NC AI, LG AI연구원, SK텔레콤, 업스테이지 5개 팀이 경쟁을 펼쳤습니다. 평가 항목은 벤치마크(60점), 전문가 평가(25점), 사용자 평가(15점)의 세 부분으로 구성되었으며, 이를 통해 기술적 완성도와 독자성이 종합적으로 평가되었습니다.
- 벤치마크 테스트에서는 표준화된 AI 성능 지표를 활용해 각 모델의 처리 능력과 정확성을 객관적으로 측정했습니다. 전문가 평가는 모델 개발 과정의 독자성 충족 여부, 설계부터 훈련까지 국내 기반 기술의 활용 비중 등을 중점적으로 평가했습니다. 사용자 평가는 AI 모델의 실제 적용 가능성과 서비스 적합성을 실사용자 기반으로 검증하여, 모델의 현실 반영력을 가늠하는 역할을 하였습니다.
- 3-2. 1차 평가 결과 및 팀별 진출 현황
- 1차 평가 결과, 네이버클라우드와 NC AI가 탈락하고 LG AI연구원, SK텔레콤, 업스테이지가 2차 평가에 진출하는 것으로 최종 결정되었습니다. 이러한 결과는 평가 기준 중 특히 독자성 확보와 성능 면에서 두드러진 차이가 나타난 데서 기인합니다.
- 특히 LG AI연구원은 높은 벤치마크 점수와 탁월한 전문가 평가로 1위를 차지하며 국내 AI 경쟁력의 위상을 재확인했습니다. SK텔레콤과 업스테이지 또한 기술적 완성도와 사용자 평가에서 긍정적인 평가를 받아 2차 진출을 확정짓는 데 성공했습니다. 반면 네이버클라우드와 NC AI는 평가 기준 중 독자성 충족과 일부 기술 요소에서 아쉬운 평가를 받으면서 이번 단계에서 프로젝트에서 제외되었습니다.
- 3-3. 독자성 기준과 탈락 배경 개괄
- 이번 1차 평가는 대한민국 독자 AI 모델 개발이라는 핵심 목표에 맞춰, ‘독자성’ 기준을 엄격히 적용하였습니다. 독자성은 기본적으로 해외 파운데이션 모델에서 가져온 미세조정이 아닌, 설계부터 학습까지 전 과정이 국내 기술과 데이터에 기반해야 한다는 점을 강조합니다.
- 프로젝트 가이드라인에 따르면, 오픈소스 기술이나 외부 모듈 사용은 제한되며, 특히 모델 가중치 및 사전 학습 데이터의 독립성이 중요한 평가 요소로 작용했습니다. 네이버클라우드의 경우 중국 알리바바의 Qwen 모델에서 제공하는 비전 인코더 및 가중치를 활용한 점이 독자성 논란의 배경이 되었고, NC AI 또한 독자성 완성도 면에서 상대적으로 부족한 점이 지적되었습니다.
- 따라서, 이번 평가에서 탈락한 두 팀은 기술적 독자성 확보가 미진한 점과 더불어, 프로젝트가 요구하는 엄격한 ‘국산 AI’ 조건과 맞지 않았던 부분이 주요 요인이라 할 수 있습니다.

4. 참여 팀별 기술성과 및 독자성 분석
- 1차 평가 결과 개요를 바탕으로 각 참여 팀별 AI 파운데이션 모델의 기술성과 독자성 측면을 심층 분석하는 것은 이번 프로젝트의 향후 방향과 국내 AI 산업 경쟁력 확보에 있어 매우 중요합니다. 특히 LG AI연구원의 K-EXAONE 모델은 글로벌 벤치마크에서 독보적인 성과를 기록하며 독자적 기술 역량을 입증하였고, 네이버클라우드는 오픈소스 활용 현황과 이에 따른 독자성 논란이 주요 쟁점으로 부각되었습니다. 또한 NC AI의 VAETKI 모델은 내부 평가 대비 예상과 달리 1차 평가에서 탈락하면서 그 기술적 배경과 원인에 대한 객관적 분석이 요구됩니다.
- 본 섹션은 각 팀의 핵심 기술 구조, 성능 벤치마크 결과 그리고 독자성 기준 충족 여부를 중심으로, 사실에 입각한 분석과 평가를 통해 1차 평가의 배경을 명확히 하고 독자성 논란에 대한 합리적 근거를 제공할 것입니다. 이를 통해 프로젝트가 추구하는 독자 AI 기술 개발과 생태계 확장에 기여할 수 있는 구조적 통찰을 제시하고자 합니다.
- 4-1. LG AI연구원 K-EXAONE 기술 구조 및 글로벌 성과
- LG AI연구원의 K-EXAONE 모델은 국내 최초로 세계 AI 벤치마크 상위 10위권에 진입한 비(非)미·중권역의 독자 파운데이션 모델로 주목받고 있습니다. 인공지능 분야 국제 평가 기관인 Artificial Analysis의 최신 글로벌 지능지수에서 7위에 위치했으며, 국내 5개 참여팀 중 최고 점수(평균 72점)로 1차 평가에서 압도적인 우위를 점했습니다.
- K-EXAONE은 약 2360억 개의 파라미터를 갖춘 대규모 모델로서, ‘하이브리드 어텐션’ 아키텍처를 고도화하여 메모리 및 연산 효율성을 이전 모델 대비 약 70% 이상 개선하였습니다. 특히 슬라이딩 윈도우 방식의 지역 집중 어텐션과 전역 문맥을 포괄하는 글로벌 어텐션을 조합하여 대규모 문서 처리 능력을 극대화했습니다. 이는 한 번의 처리로 40여만 토큰에 달하는 대용량 컨텍스트를 읽고 이해할 수 있는 독보적 성능을 달성한 배경입니다.
- 또한, LG AI연구원은 자체 개발한 모델 가중치를 공개하며 ‘프론트티어급’ AI시스템으로서 연구자 커뮤니티와 산업계에 개방해 활용도를 높였습니다. 공개 이후 Hugging Face 글로벌 모델 순위 2위에 오르는 등 국내외 개발자들의 높은 관심을 받았으며, 미국 Epoch AI에서도 다섯 개 모델을 ‘노터블 AI’로 선정, 국내 AI 기술의 세계적 경쟁력을 견고히 확인했습니다.
- 효율성뿐 아니라 안전성과 준법성에도 중점을 두어, 모든 학습 데이터에 대해 엄격한 저작권 검토와 윤리적 평가를 진행했습니다. 특화된 한국어 안전성 평가 ‘KGC-SAFETY’에서는 97.83점으로 OpenAI, Alibaba 모델을 상회하는 결과를 기록하며 신뢰도 높은 AI 대형 모델로 자리매김했습니다.
- 이러한 기술 완성도와 글로벌 성과는 제한된 자원 하에서도 자체적인 설계와 엔지니어링으로 세계 최고 수준의 모델을 구현할 수 있음을 보여줍니다. 따라서 K-EXAONE은 이번 독자 AI 프로젝트의 목표에 부합하는 기술적 독자성과 성능 우위의 강력한 근거로 평가됩니다.
- 4-2. 네이버클라우드 오픈소스 활용과 독자성 쟁점
- 네이버클라우드의 HyperCLOVA X Seed 32B Think 모델은 대중성과 실용성 측면에서 두드러진 성과를 보였습니다. 글로벌 오픈소스 플랫폼 Hugging Face의 2026년 1월 5일 기준 다운로드 수 23,589건은 참여팀 중 월등히 높은 수준으로, 개발자 커뮤니티와 산업 현장에서 폭넓게 채택되고 있음을 의미합니다.
- 모델은 현저히 적은 파라미터 수(약 320억 개)를 바탕으로 음성, 시각, 도구 활용 능력을 통합한 옴니모달 에이전트 경험을 구현하여, 올해 치러진 대학수학능력시험 주요 과목 모두에서 1등급 성취 및 영어와 한국사 완전 만점을 받는 등 실제 문제 해결력에서 크게 주목받고 있습니다.
- 하지만 오픈소스 활용과 관련하여 독자성 기준 충족 여부가 심각하게 논란이 되었습니다. 다수 공신력 있는 조사 결과, 비전 인코더와 일부 가중치가 중국 알리바바사의 Qwen 2.4 모델과 99.5% 이상의 거의 동일성을 보여 독자 기술 개발에 대한 의문을 제기받았습니다. 이외에도 음성 및 기타 인코더에 OpenAI 및 Alibaba 모델 아키텍처가 부분적으로 활용된 것으로 밝혀졌습니다.
- 네이버클라우드는 이러한 지적에 대해 핵심 추론 시스템과 모델의 두뇌 부분은 자체 연구개발 결과이며, 오픈소스 모듈은 엔지니어링 선택 사항일 뿐 독자 기술에 커다란 영향을 주지 않는다고 해명하였습니다. 또한 필요 시 해외 구성 요소를 자체 시스템으로 대체할 의사가 있음을 밝혔습니다.
- 이와 같은 상황은 독자성 판단 기준이 ‘기술적 설계의 완전한 독립성’에서 ‘핵심 기능 독자 여부’로 현실적으로 수렴되는 과도기의 모습을 반영합니다. 다운로드 수 및 실제 활용도는 높으나 기술적 완전 독립에 대한 논란이 계속되는 점은 이번 프로젝트가 안고 있는 복합적 딜레마를 상징적으로 보여줍니다.
- 4-3. NC AI VAETKI 모델 성과 및 내부 평가 대비 탈락 배경
- NC AI의 VAETKI 모델은 2025년 말 국내외 AI 연구계에서 주목받은 고성능 다중 모달 파운데이션 모델로서, 내부 자체 평가에서는 OpenAI GPT OSS 시리즈 및 Meta Llama4와 비교해 100% 이상의 성능 우위를 보인 것으로 발표되었습니다. 특히 한국어 토크나이저 사전에 20%를 할당하고 자모 통합 기능을 도입함으로써 한국어 이해력과 특수문자 처리 능력에서 뛰어난 성능을 갖추었습니다.
- VAETKI는 혼합 전문가(Mixture of Experts, MoE) 아키텍처와 ‘멀티 레이턴트 어텐션’ 등의 첨단 기술을 접목하여 연산 효율성을 극대화했습니다. 메모리 사용량은 기존 대비 83% 가량 절감되었으며, 산업별 맞춤형 AI 운영 체계인 ‘DomainOps’를 구축하여 제조, 방위, 콘텐츠 등 다양한 산업군에 적용 가능한 전문화 모델로 차별화했습니다.
- 그러나 정부 주도의 1차 평가에서 VAETKI는 예상외로 탈락하는 결과를 맞았습니다. 이는 내부 평가와 외부 평가 기준 및 절차 간 괴리, 그리고 독자성 및 성능 항목에서 타팀 대비 상대적 열위 요인에 의한 복합적 결과로 추정됩니다. 구체적으로는 성능 지표에서 벤치마크 점수가 타당성 검증된 외부 평가 결과와 다소 차이를 보였고, 독자성 논란과는 비슷한 맥락에서 기술 검증 과정에서 충분한 증빙이 확보되지 않았던 부분이 있습니다.
- 또한 범용 LLM과 산업 특화 모델 간의 전략적 방향성 차이도 이번 평가에서 불리하게 작용하였습니다. VAETKI가 표방하는 ‘도메인 특화’ 접근이 범용성과 국제적 벤치마크 중심의 이번 평가와 다소 상이했다는 점 역시 평가 성과에 영향을 미친 것으로 분석됩니다.
- 이러한 탈락은 프로젝트 전체의 다원적 목표 설정과 평가 기준 수립에 있어 향후 보완 및 조정이 필요함을 시사하며, 산업 현장의 실제 적용 가능성과 기술 독립성 사이의 균형점을 모색하는 숙제로 남았습니다.
5. 평가 과정의 공정성 논란과 정책적 시사점
- 대한민국 정부 주도의 독자 AI 파운데이션 모델 개발 프로젝트는 기술적 독자성 제고와 산업 경쟁력 강화를 목표로 삼았습니다. 그러나 1차 평가 과정에서는 ‘독자성’의 정의와 평가 기준에 관한 다양한 해석과 논란이 심화되었으며, 이에 따른 평가 공정성 문제도 제기되었습니다. 특히, 오픈소스 활용 범위와 외부 기술 도입에 관한 기준 모호성은 참여 기업 간 분쟁으로 번지는 등 총체적인 쟁점으로 부상하였습니다. 이처럼 평가 프로세스의 공정성과 투명성은 단순히 결과의 적절성 차원을 넘어서, 국내 AI 생태계 성장과 정부 정책 수립에 결정적인 영향을 주는 요소임을 확인할 수 있습니다.
- 5-1. 독자성의 정의와 오픈소스 활용 논란
- 프로젝트의 핵심 평가 지표인 ‘독자성’은 국내에서 ‘처음부터 직접 개발한 기술’이라는 개념으로 정의되었으나, 구체적으로 어느 수준까지 외부 기술을 활용할 수 있는지에 대한 합의는 부족하였습니다. 특히, 오픈소스 소프트웨어 사용 범위가 핵심 쟁점으로 등장했습니다. 일부 참여 기업은 오픈소스 inference 코드나 공개된 모델 가중치(pretrained weights)의 활용을 기술 독자성 훼손으로 보지 않았으나, 다른 참여사는 이를 문제 삼아 격렬한 공방이 벌어졌습니다.
- 예를 들어, 네이버클라우드는 알리바바가 공개한 Qwen 모델의 시각 및 음성 인코더를 일부 사용한 사실을 인정하였으나, 이는 효율성과 호환성 강화를 위한 전략적 선택이라 주장했습니다. 반면 경쟁사들은 이러한 외부 기술 의존이 장기적으로 국내 AI 기술의 독립성을 저해할 위험이 있다고 지적하였습니다. 이와 같이 ‘독자성’의 범위를 명확히 하지 않은 채 평가가 진행되면서, 기준의 일관성 확립에 실패했고 결과적으로 신뢰성 약화라는 부작용을 초래했습니다.
- 5-2. 공정성 문제와 참여 기업 간 분쟁 사례
- 평가 과정의 투명성 부족과 기준 해석의 다양성은 공정성 논란으로 이어졌습니다. 평가에 적용된 벤치마크 시험에서, 각 팀이 선택한 추가 벤치마크가 서로 다르게 구성되어 특정 모델에 유리한 환경을 제공했다는 비판이 제기되었으며, 이는 전형적인 평가 편향 문제로 보입니다.
- 또한, 개발 과정에서 일부 팀이 타국 AI 모델의 오픈소스 inference 코드를 사용했다는 의혹이 부각되어 논란이 증폭되었습니다. 업스테이지와 SK텔레콤이 중국 회사 지푸(Zhipu)의 코드를 활용했다는 주장이 있었으나, 전문가 분석 결과 오버랩이 미미해 오히려 해명과 사과로 마무리된 사례도 있습니다.
- 그럼에도 불구하고 네이버클라우드와 업스테이지에 제기된 ‘독자성 미흡’ 의혹은 공식 평가 기준이 불명확한 상태에서 경쟁사가 치열한 견제와 내부 분쟁으로 확산되었습니다. 이러한 사례들은 평가 체계가 산업 내 신뢰 구축에 실패했음을 시사하며, 향후 유사 사업 추진 시 평가 프로세스의 명확화와 투명성 제고가 필수적임을 보여줍니다.
- 5-3. 향후 정책적 시사점과 권고
- 이번 프로젝트 평가 과정에서 드러난 공정성 및 독자성 논란은 국내 AI 산업 발전을 위한 정책적 전환점이 될 수 있습니다. 첫째, ‘독자성’의 정의를 기술적·법률적 측면에서 명확히 규정하여 오픈소스 및 외부 기술 활용 범위를 구체화하는 것이 요구됩니다. 이를 위해 관련 라이선스 체계와 국제 표준을 참고하는 동시에 국내 현실에 적합한 가이드라인 수립이 필요합니다.
- 둘째, AI 평가 절차에서 벤치마크 선정과 가중치 부여 방식을 일원화하고, 전반적인 평가 과정의 투명성을 보장하는 시스템이 구축되어야 합니다. 객관적이고 공정한 평가 환경 조성은 참여 기업의 신뢰를 확보하며 AI 생태계 경쟁력을 강화할 것입니다.
- 셋째, 정부는 이번 사업에서 나타난 산업계 내부 갈등과 평가 논란을 기반으로, AI 기술 생태계 조성에 대한 통합적 정책적 접근을 모색해야 합니다. 기술 독자성 뿐만 아니라 오픈소스와 협력적 혁신의 균형을 고려한 전략 개발, 그리고 산업계와의 지속적 소통 강화가 반드시 병행되어야 할 과제입니다.
- 마지막으로, 국내 AI 기술의 국제 경쟁력을 담보하기 위해서는 평가체계 개선과 더불어 국제적 협력과 규범 준비에도 적극 참여하여 글로벌 시장에서 신뢰받는 독자 AI 생태계를 구축해야 합니다. 이를 통해 정부 주도의 AI 파운데이션 모델 프로젝트가 단순한 기술 개발 사업을 넘어, 대한민국 AI 산업의 지속가능한 미래를 설계하는 초석이 되도록 해야 합니다.

6. 결론
- 이번 1차 평가는 대한민국 독자 AI 파운데이션 모델 개발 프로젝트의 현재 수준과 방향성을 명확히 보여주었습니다. LG AI연구원의 K-EXAONE이 뛰어난 기술력과 독자적 설계로 글로벌 벤치마크 최고 성과를 거둔 반면, 네이버클라우드와 NC AI는 독자성 및 성능 면에서 기준을 충족하지 못해 탈락하는 결과가 나타났습니다. 이는 ‘독자성’이라는 엄격한 기준이 기술적 완성도를 판단하는 핵심 잣대로 작용하고 있음을 시사합니다.
- 더 나아가 평가 과정에서 드러난 오픈소스 활용 범위와 공정성 논란은 국내 AI 산업의 발전을 위해 반드시 해결해야 할 정책적 과제임을 확인시켜 주었습니다. 여러 참여 기업 간 기준 해석 차이와 평가 불투명성 등은 산업 내 신뢰 구축과 생태계 조성을 위한 평가 체계 개선의 긴박성을 부각합니다.
- 앞으로 정부와 산업계는 ‘독자성’의 명확한 정의와 평가 지침 마련, 그리고 투명하고 공정한 평가 프로세스 구축에 적극 나서야 합니다. 또한, 국제 표준과 연계한 정책 수립과 협력적 혁신 모델 개발을 병행하여 국내 AI 생태계의 지속 가능성과 글로벌 경쟁력을 함께 강화할 필요가 있습니다.
- 결론적으로 본 프로젝트는 대한민국 AI 산업의 독립적 성장과 국제적 위상 강화를 위한 시금석입니다. 정부와 민간이 협력하여 기술 경쟁력은 물론 정책적 신뢰성과 산업 생태계의 조화를 꾀할 때, 대한민국 AI의 미래는 더욱 밝을 것입니다.
용어집
- 파운데이션 모델: 대규모 데이터와 연산 자원을 활용해 다양한 작업에 적용할 수 있도록 사전 학습된 인공지능 모델로, 본 프로젝트에서는 독자적으로 개발된 AI 기반 시스템을 의미합니다.
- 독자성: 외부 기술이나 해외 모델에 의존하지 않고, 설계부터 학습까지 전 과정이 국내 기술과 데이터에 기반한 AI 모델의 기술적 자립도를 나타내는 평가 기준입니다.
- 벤치마크 테스트: AI 모델의 성능을 객관적으로 평가하기 위한 표준화된 시험으로, 처리 능력과 정확성 등을 수치화하여 비교합니다.
- 모델 가중치(Weights): 인공지능 학습 과정에서 조정되는 수치들의 집합으로, 모델의 성능과 행동을 결정하며, 본 프로젝트에서는 외부 가중치 사용이 독자성 평가에 중요한 영향을 미쳤습니다.
- 파라미터(Parameter): AI 모델 내에서 학습되는 변수의 단위로, 모델의 크기와 복잡도를 나타내며, 예를 들어 K-EXAONE 모델은 약 2360억 개의 파라미터를 가집니다.
- 하이브리드 어텐션 아키텍처: 국내 K-EXAONE 모델에 적용된 기술로, 지역 집중 어텐션과 전역 문맥을 포괄하는 글로벌 어텐션을 결합해 대규모 문서 처리를 효율적이고 정확하게 수행하는 구조입니다.
- 옴니모달 에이전트: 음성, 시각, 텍스트 등 여러 유형의 데이터를 통합 처리할 수 있는 AI 시스템을 의미하며, 네이버클라우드 모델에서 구현된 기능입니다.
- 혼합 전문가 아키텍처(Mixture of Experts, MoE): 여러 전문가 네트워크를 조합해 효율적으로 연산을 수행하는 AI 모델 구조로, NC AI VAETKI 모델에 적용되어 성능과 효율성을 높였습니다.
- 멀티 레이턴트 어텐션: VAETKI 모델에 적용된 기술로, 복수의 잠재 표현 공간을 활용해 연산 효율화 및 성능 향상을 도모하는 어텐션 메커니즘입니다.
- 토크나이저(Tokenizer): 텍스트를 처리 가능한 단위(토큰)로 분할하는 도구로, 한국어 이해도를 높이기 위해 NC AI 모델은 특화된 사전과 자모 통합 기능을 적용하였습니다.
- KGC-SAFETY 평가: 한국어 안전성 평가 체계로, AI 모델의 윤리성과 저작권 준수 등을 점검하는 기준이며, LG AI연구원의 K-EXAONE 모델이 우수한 점수를 받았습니다.
- 오픈소스(Open Source): 소스 코드가 공개되어 누구나 사용·수정·배포할 수 있는 소프트웨어로, 본 프로젝트에서 일부 팀의 오픈소스 활용 범위가 독자성 논란의 핵심이 되었습니다.
- 인퍼런스(Inference) 코드: 학습된 AI 모델을 실제로 동작시켜 결과를 생성하는 코드로, 일부 평가 참가팀이 외부 인퍼런스 코드를 활용한 사실이 논란이 되었습니다.
- 도메인 특화 모델: 특정 산업이나 분야에 맞춰 최적화된 AI 모델을 뜻하며, NC AI의 VAETKI 모델은 제조, 방위, 콘텐츠 등 산업별 맞춤형 시스템을 구현하였습니다.
|
출처 문서
|
반응형