딥시크, R1-0528 구글의 제미나이 훈련 데이터 사용 의혹(25.06.03)
딥시크 R1-0528 업데이트 및 훈련 데이터 논란
소개
중국의 AI 스타트업 딥시크는 최근 R1 추론 AI 모델의 업데이트 버전인 DeepSeek-R1-0528을 출시했습니다. 이 업데이트는 오픈소스와 비공개 소스 AI 모델 간의 경쟁을 다시 촉발시켰습니다. DeepSeek-R1-0528은 6850억 개의 매개변수를 가지고 있으며, 이는 이전 버전의 6710억 개에서 증가한 수치입니다. 오픈AI나 구글의 모델과 달리 딥시크의 모델 가중치는 공개적으로 이용 가능합니다.
성능 향상
벤치마크 결과에 따르면, R1-0528 업데이트는 추론 및 추론 능력이 향상되었으며 오픈AI의 o3 및 구글의 Gemini 2.5 Pro와의 격차를 좁히고 있습니다. 예를 들어, AIME 2025 테스트에서 정확도가 70%에서 87.5%로 상승했으며, LiveCodeBench 데이터셋에서의 코딩 성능은 63.5%에서 73.3%로, "Humanity's Last Exam"에서는 8.5%에서 17.7%로 두 배 이상 향상되었습니다. 이러한 개선은 컴퓨팅 자원 증가와 후처리에서의 알고리즘 최적화를 통해 이루어졌습니다.
오픈소스 접근 방식 및 효율성
딥시크의 모델은 MIT 라이선스 하에 상업적 사용을 허용하며, 개발자들이 모델을 맞춤화할 수 있도록 합니다. 모델 가중치는 허깅페이스를 통해 이용 가능하며, API를 통한 통합도 지원됩니다. 딥시크는 오픈 가중치 방식을 통해 미국 경쟁사들을 따라잡고 있으며, AI 모델이 오픈AI나 구글 등 대형 기업들이 현재 사용하는 것만큼 많은 컴퓨팅 파워를 필요로 하지 않을 수 있음을 보여주고 있습니다. 딥시크는 이전 버전의 모델을 55일 만에 약 2,000개의 GPU로 558만 달러의 비용을 들여 훈련시켰다고 밝혔는데, 이는 일반적으로 이 규모의 모델을 훈련하는 데 드는 비용에 비해 훨씬 적은 금액입니다.
소형 모델 변형
딥시크는 또한 R1-0528의 증류 버전인 DeepSeek-R1-0528-Qwen3-8B를 출시했습니다. 이 소형 모델은 기능은 떨어지지만 컴퓨팅 파워를 덜 요구하며 단일 GPU에서도 실행될 수 있다고 알려져 있습니다. 이 버전은 특정 벤치마크에서 구글의 최신 경량 모델과 오픈AI의 o3-mini를 능가하는 성능을 보입니다.
구글 제미니 훈련 데이터 사용 의혹
딥시크가 R1-0528 모델을 훈련시키기 위해 구글의 제미니 AI 출력물을 사용했을 수 있다는 추측이 제기되었습니다. 일부 AI 연구자들은 딥시크의 최신 모델이 구글의 제미니 2.5 프로가 선호하는 것과 유사한 단어와 표현을 선호한다고 주장합니다. 또한, 이 모델이 결론에 도달하기 위해 생성하는 '생각'의 흔적이 제미니의 흔적처럼 읽힌다는 의견도 있습니다.
이전 데이터 사용 의혹
딥시크는 이전에 경쟁사 AI 모델의 데이터로 훈련했다는 비난을 받은 적이 있습니다. 2025년 초, 오픈AI는 딥시크가 더 크고 성능이 뛰어난 모델에서 데이터를 추출하는 기법인 '증류'를 사용했다는 증거를 발견했다고 밝혔습니다. 마이크로소프트 역시 2024년 말 오픈AI 개발자 계정을 통해 대량의 데이터가 유출된 것을 감지했는데, 오픈AI는 이 계정이 딥시크와 관련 있다고 보고 있습니다.
증류와 예방 노력
증류는 흔한 방식이지만, 오픈AI의 서비스 약관은 경쟁 AI를 구축하기 위해 자사 모델의 출력물을 사용하는 것을 금지하고 있습니다. 데이터에 AI 생성 콘텐츠가 섞이는 '오염'으로 인해 훈련 데이터셋에서 AI 출력물을 철저히 필터링하기 어려워졌습니다. 이러한 문제를 막기 위해 AI 기업들은 보안 조치를 강화하고 있습니다. 오픈AI는 고급 모델 접근에 대한 신원 확인 절차를 도입했으며, 구글과 앤트로픽은 모델이 생성하는 '흔적'을 요약하여 경쟁사가 이를 이용해 모델을 훈련하는 것을 어렵게 만들고 있습니다.
검열 문제
딥시크 모델의 또 다른 단점으로는 중국 정부에 대한 비판과 관련하여 이전 버전보다 더 검열이 심해졌다는 주장이 있습니다.
결론
딥시크의 R1-0528 업데이트는 강력한 오픈소스 AI 모델로서 오픈AI와 구글에 대한 실질적인 위협으로 여겨지고 있습니다. 향상된 성능, 오픈소스 접근 방식, 효율적인 훈련은 딥시크를 주목할 만한 경쟁자로 만들고 있습니다. 그러나 구글 제미니 출력물을 훈련에 사용했다는 의혹은 데이터 출처 및 AI 훈련 방식에 대한 논란을 불러일으키고 있으며, 이는 업계 전반의 보안 강화로 이어지고 있습니다. 딥시크는 이러한 데이터 사용 의혹에 대해 직접적인 입장을 밝히지 않고 있습니다.
Видео 딥시크, R1-0528 구글의 제미나이 훈련 데이터 사용 의혹(25.06.03) канала 월몰
소개
중국의 AI 스타트업 딥시크는 최근 R1 추론 AI 모델의 업데이트 버전인 DeepSeek-R1-0528을 출시했습니다. 이 업데이트는 오픈소스와 비공개 소스 AI 모델 간의 경쟁을 다시 촉발시켰습니다. DeepSeek-R1-0528은 6850억 개의 매개변수를 가지고 있으며, 이는 이전 버전의 6710억 개에서 증가한 수치입니다. 오픈AI나 구글의 모델과 달리 딥시크의 모델 가중치는 공개적으로 이용 가능합니다.
성능 향상
벤치마크 결과에 따르면, R1-0528 업데이트는 추론 및 추론 능력이 향상되었으며 오픈AI의 o3 및 구글의 Gemini 2.5 Pro와의 격차를 좁히고 있습니다. 예를 들어, AIME 2025 테스트에서 정확도가 70%에서 87.5%로 상승했으며, LiveCodeBench 데이터셋에서의 코딩 성능은 63.5%에서 73.3%로, "Humanity's Last Exam"에서는 8.5%에서 17.7%로 두 배 이상 향상되었습니다. 이러한 개선은 컴퓨팅 자원 증가와 후처리에서의 알고리즘 최적화를 통해 이루어졌습니다.
오픈소스 접근 방식 및 효율성
딥시크의 모델은 MIT 라이선스 하에 상업적 사용을 허용하며, 개발자들이 모델을 맞춤화할 수 있도록 합니다. 모델 가중치는 허깅페이스를 통해 이용 가능하며, API를 통한 통합도 지원됩니다. 딥시크는 오픈 가중치 방식을 통해 미국 경쟁사들을 따라잡고 있으며, AI 모델이 오픈AI나 구글 등 대형 기업들이 현재 사용하는 것만큼 많은 컴퓨팅 파워를 필요로 하지 않을 수 있음을 보여주고 있습니다. 딥시크는 이전 버전의 모델을 55일 만에 약 2,000개의 GPU로 558만 달러의 비용을 들여 훈련시켰다고 밝혔는데, 이는 일반적으로 이 규모의 모델을 훈련하는 데 드는 비용에 비해 훨씬 적은 금액입니다.
소형 모델 변형
딥시크는 또한 R1-0528의 증류 버전인 DeepSeek-R1-0528-Qwen3-8B를 출시했습니다. 이 소형 모델은 기능은 떨어지지만 컴퓨팅 파워를 덜 요구하며 단일 GPU에서도 실행될 수 있다고 알려져 있습니다. 이 버전은 특정 벤치마크에서 구글의 최신 경량 모델과 오픈AI의 o3-mini를 능가하는 성능을 보입니다.
구글 제미니 훈련 데이터 사용 의혹
딥시크가 R1-0528 모델을 훈련시키기 위해 구글의 제미니 AI 출력물을 사용했을 수 있다는 추측이 제기되었습니다. 일부 AI 연구자들은 딥시크의 최신 모델이 구글의 제미니 2.5 프로가 선호하는 것과 유사한 단어와 표현을 선호한다고 주장합니다. 또한, 이 모델이 결론에 도달하기 위해 생성하는 '생각'의 흔적이 제미니의 흔적처럼 읽힌다는 의견도 있습니다.
이전 데이터 사용 의혹
딥시크는 이전에 경쟁사 AI 모델의 데이터로 훈련했다는 비난을 받은 적이 있습니다. 2025년 초, 오픈AI는 딥시크가 더 크고 성능이 뛰어난 모델에서 데이터를 추출하는 기법인 '증류'를 사용했다는 증거를 발견했다고 밝혔습니다. 마이크로소프트 역시 2024년 말 오픈AI 개발자 계정을 통해 대량의 데이터가 유출된 것을 감지했는데, 오픈AI는 이 계정이 딥시크와 관련 있다고 보고 있습니다.
증류와 예방 노력
증류는 흔한 방식이지만, 오픈AI의 서비스 약관은 경쟁 AI를 구축하기 위해 자사 모델의 출력물을 사용하는 것을 금지하고 있습니다. 데이터에 AI 생성 콘텐츠가 섞이는 '오염'으로 인해 훈련 데이터셋에서 AI 출력물을 철저히 필터링하기 어려워졌습니다. 이러한 문제를 막기 위해 AI 기업들은 보안 조치를 강화하고 있습니다. 오픈AI는 고급 모델 접근에 대한 신원 확인 절차를 도입했으며, 구글과 앤트로픽은 모델이 생성하는 '흔적'을 요약하여 경쟁사가 이를 이용해 모델을 훈련하는 것을 어렵게 만들고 있습니다.
검열 문제
딥시크 모델의 또 다른 단점으로는 중국 정부에 대한 비판과 관련하여 이전 버전보다 더 검열이 심해졌다는 주장이 있습니다.
결론
딥시크의 R1-0528 업데이트는 강력한 오픈소스 AI 모델로서 오픈AI와 구글에 대한 실질적인 위협으로 여겨지고 있습니다. 향상된 성능, 오픈소스 접근 방식, 효율적인 훈련은 딥시크를 주목할 만한 경쟁자로 만들고 있습니다. 그러나 구글 제미니 출력물을 훈련에 사용했다는 의혹은 데이터 출처 및 AI 훈련 방식에 대한 논란을 불러일으키고 있으며, 이는 업계 전반의 보안 강화로 이어지고 있습니다. 딥시크는 이러한 데이터 사용 의혹에 대해 직접적인 입장을 밝히지 않고 있습니다.
Видео 딥시크, R1-0528 구글의 제미나이 훈련 데이터 사용 의혹(25.06.03) канала 월몰
Комментарии отсутствуют
Информация о видео
4 июня 2025 г. 19:05:34
00:06:30
Другие видео канала