Improve some Korean translation of Applications part#5
Conversation
heozeop
left a comment
There was a problem hiding this comment.
제가 할 수 있는 것은 감탄 밖에 없었기 때문에, 그냥 취향적인 부분 몇가지 의견 표현만 하였습니다.
수고하셨습니다!
| # 오늘부터 일주일 뒤는 | ||
| one_week_from_today = today + relativedelta(weeks=1) | ||
| # The answer formatted with %m/%d/%Y is | ||
| # 답을 %m/%d/%Y 형식으로 하면 |
There was a problem hiding this comment.
하면 -> 한다면/하려면
은 어떻게 생각하시나요?
의도는 질문한다는 느낌의 강조입니다.
There was a problem hiding this comment.
61, 68, 75, 82, 89도 같은 의견 입니다.
There was a problem hiding this comment.
의견 감사합니다.
이 부분은 질문의 느낌보다는 The answer is ○○○. 라는 느낌에서의 답은 ○○○이다. 라고 생각했습니다.
영어는 The answer is / ○○○ 로 개행이 들어가고 다음 줄에 답에 해당하는 ○○○가 와도 문장 구성에 문제가 없지만, 한국어는 답은 / ○○○ 라고 다음 줄에 ○○○ 가 들어가면 이다.를 위한 한 줄이 더 필요하게 되는 이슈가 있어서 문장을 마치지 않고 이다. 를 생략한 채 답은 / ○○○ 까지로 작성했습니다.
수학문제 풀 때 ∴ x = 720 하는 느낌이죠.
| [Clavié et al., 2023](https://arxiv.org/abs/2303.07142)는 생산 시스템에 중간 규모 텍스트 분류 사용 사례를 적용한 프롬프트 엔지니어링에 대한 사례 연구를 발표했습니다. 직업이 정말 대학을 갓 졸업한 사람에게 적합한 "입문 수준의 직업"인지 아닌지 분류하는 작업을 하여 일련의 프롬프트 엔지니어링 기술을 평가하고 GPT-3.5 (`gpt-3.5-turbo`)를 이용하여 결과를 보고했습니다. | ||
|
|
||
| 이 연구는 강력한 베이스라인인 DeBERTa-V3를 포함한 여러 다른 모델들을 LLM이 가뿐히 능가했음을 증명합니다. 또한 `gpt-3.5-turbo`가 구 버전의 GPT3 variants의 모든 키 메트릭에서 두각을 나타냈음을 보여주었습니다만, 템플릿에 한정하여 추가 출력 파싱을 필요로 할 만큼 다른 variants보다는 조금 떨어진 성능을 확인할 수 있었습니다. | ||
| 이 연구는 LLM이 DeBERTa-V3의 매우 강력한 기준선을 포함한 다른 모든 테스트된 모델들을 능가했음을 보여줍니다. `gpt-3.5-turbo` 또한 모든 주요 메트릭에서 구 버전의 GPT3 변종보다 눈에 띄게 뛰어난 성능을 보이지만, 템플릿에 대한 적용성이 다른 변종들에 비해 부족하여 추가적인 출력 파싱이 필요합니다. |
There was a problem hiding this comment.
DeBERTa-V3의 -> 라는
은 어떻게 생각하시나요?
DeBERTa-V3가 모델이라 기준선 == DeBERTa-V3가 되어야 할 것 같아서요!
There was a problem hiding this comment.
DeBERTa-V3의 매우 강력한 기준선을 포함한의 원문은 including an extremely strong baseline in DeBERTa-V3 이라서 저렇게 번역했던 건데,
DeBERTa-V3를 모델 이름이라고 생각하고 이 문장을 보니 표현이 좀 애매하긴 하군요.
이 모델이 가진 어떤 성능 지표? 같은 걸 의미하는 것 같아서 DeBERTa-V3라는 으로 이 모델과 기준선을 동일시하기도 어려울 것 같으니, 이 부분은 an extremely strong baseline in DeBERTa-V3이 의미하는 걸 좀 더 찾아보고 고민해봐야 할 것 같습니다.
내일 한 번 찾아보고 수정해볼게요!!
There was a problem hiding this comment.
찾아봤는데 영... 모르겠어서, 이 부분은 전체 리뷰 때 이 분야에 대한 기술적 지식이 있는 분께 넘기는 게 좋을 것 같습니다.
|
Notion에서 확정된 대로 개발 중 문구 번역 반영했습니다. |
| LangChain과 OpenAI GPT-3을 사용한 예시를 살펴보겠습니다. 우리는 파이썬 인터프리터를 활용하여 질문을 해석하고 답변을 제공하는 간단한 애플리케이션을 개발해야 하는 상황이라고 가정해 보겠습니다. | ||
|
|
||
| 특히, 날짜 이해가 필요한 질문에 LLM을 사용하여 답변할 수 있는 기능을 만드는 것에 초점을 맞추겠습니다. 프롬프트에 제공한 몇 가지 예시는 [여기](https://github.com/reasoning-machines/pal/blob/main/pal/prompt/date_understanding_prompt.py)에서 채택했습니다. | ||
| 그 중에서도 날짜에 대한 이해가 필요한 질문에 대해서 LLM을 이용하여 답할 수 있는 기능을 만들고자 합니다. LLM에 제공할 프롬프트의 예제 중 일부는 [여기](https://github.com/reasoning-machines/pal/blob/main/pal/prompt/date_understanding_prompt.py)에서 채택했습니다. |
There was a problem hiding this comment.
그 중에서도 와 "그중에서도" 사이에서 확인 한 번 부탁드립니다 :)
There was a problem hiding this comment.
확인했습니다. 반영 후 목요일에 2차 리뷰 마감 후 한 번에 PR 하도록 하겠습니다.
| | mock | 그들을 인정하는 의사 토론을 통해 작업 지시를 제공합니니다. | | ||
| | reit | 요점을 반복하여 지시를 강화합니다. | |
There was a problem hiding this comment.
이 또한 반영 후 목요일에 2차 리뷰 마감 후 한 번에 PR 하도록 하겠습니다.
♯ Type (복수 선택 가능)
📁 Files
pages/applications.kr.mdxpages/applications/_meta.kr.mdxpages/applications/generating.kr.mdxpages/applications/pal.kr.mdxpages/applications/workplace_casestudy.kr.mdx✍️ Comment
Application 파트 중 기존 번역이 되어 있던 부분에 대한 번역 보완입니다.
pages/applications.kr.mdx하단의This section is under heavy development.문구는 논의 확정 후 수정 반영하도록 하겠습니다.