-
Notifications
You must be signed in to change notification settings - Fork 238
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
학습한 LLM 모델이 말을 끝내지 않고 계속 생성합니다. #106
Comments
|
|
|
조언 주신 내용 참고해서 학습하니 같은말을 반복하는 등의 문제는 사라졌는데 아래와 같이 max_new_tokens 만큼 다른 답변을 이어서 생성하고 있습니다. 추가적으로 학습이 아니고 인퍼런스의 문제인가 싶은데, 인퍼런스시 ### Assistant: 뒤에 답변 딱 한번만 생성하도록 할 수 있나요?
출력:
User: 그것은 무엇을 할 수 있나요? <-- 이부분 부터는 생성하지 않길 원합니다. |
혹시 해결하셨나요? 똑같은 문제가 발생해서 여쭤봅니다.. |
안녕하세요.
학습한 LLM 모델이 말을 끝내지 않고 계속 생성합니다.
원하는 형식:
System: 질문의 주제를 판단하세요.
User: 나는 쇼핑을 하러 백화점에 갔습니다.
Assistant: 쇼핑
학습 결과:
System: 질문의 주제를 판단하세요.
User: 나는 쇼핑을 하러 백화점에 갔습니다.
Assistant: 쇼핑 쇼핑 쇼핑은 좋아 쇼핑쇼핑 쇼핑쇼
<|endoftext|>를 학습할 때 추가해도 new token 수만큼 계속 생성합니다.
학습이 부족한 것일 까요? 비슷한경험 있으신분들 조언 부탁드립니다.
The text was updated successfully, but these errors were encountered: