Translate dsp, graph, multimodalcot, react files#8
Conversation
Signed-off-by: Jungwon Kim <jungwon81@gmail.com>
|
@LEE-YE-JI 님 리뷰 부탁드리겠습니다. |
|
@mel-f-dev 님 리뷰 부탁드리겠습니다. |
|
@icetiredisgettingbear 님 리뷰 부탁드리겠습니다. |
|
@mel-f-dev, @icetiredisgettingbear |
Signed-off-by: Jungwon Kim <jungwon81@gmail.com>
heozeop
left a comment
There was a problem hiding this comment.
수고 많으셨습니다! 라인 잘 맞춰주셔서 내용 파악이 수월했습니다!
몇몇 수정은 제 개인 취향이라 보시고 의견 나누면 좋겠습니다!
감사합니다!
| [Li et al., (2023)](https://arxiv.org/abs/2302.11520) 에서는 원하는 요약을 생성하는 데 있어 대규모언어모델을 더 잘 안내하는 새로운 프롬프팅 기법을 제안합니다. | ||
|
|
||
| 조정 가능한 정책 LM은 자극/힌트를 생성하도록 훈련됩니다. LLMs을 최적화하기 위해 RL을 더 많이 사용하고 있습니다. | ||
| 조정 가능한 정책 언어모델\(Tuneable policy LM\)은 자극\(stimulus\)/힌트\(hint\)를 생성하도록 훈련됩니다. 대규모언어모델을 최적화하기 위해 RL을 더 많이 사용하고 있습니다. |
There was a problem hiding this comment.
RL의 경우, 다음 논문의 abstraction 보니 'Reinforcement Learning'의 약자로 보입니다. 이것도 "강화 학습"정도로 번역하면 어떨까 합니다!
There was a problem hiding this comment.
감사합니다. 강화 학습으로 변경해서 올리겠습니다.
| import MCOT from '../../img/multimodal-cot.png' | ||
|
|
||
| [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프트 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거를 생성합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보를 활용하여 답변을 도출합니다. | ||
| [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프팅 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식\(language modality\)에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거 생성\(rationale generation\)을 포함합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보적 근거들\(informative generated rationales\)을 활용하여 답변을 도출합니다. |
There was a problem hiding this comment.
"최근 멀티모달 CoT" 부분의 CoT를 영문 병기하면 좋을 것 같습니다.
There was a problem hiding this comment.
원문에는 chain-of-thought 로 풀어서 써 있네요.
chain of thought 관련 용어 논의에 따라 "멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)"으로 작성하는 건 어떨까요?
"멀티모달" 또한 적절한 번역어를 찾거나 영문 병기를 하는 게 좋을 듯 해서요.
아니면 CoT에 대해 명확히 하고 싶다면
"멀티모달(multimodal) 생각의 사슬(chain-of-thought; CoT) 프롬프팅"으로 해도 되고요.
There was a problem hiding this comment.
"멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)" 로 변경하는 것이 좋을 것 같아 수정하겠습니다.
감사합니다.
| import REACT2 from '../../img/react/alfworld.png' | ||
|
|
||
| [Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 LLM을 사용하여 추론 추적과 작업별 액션을 인터리브 방식으로 생성하는 프레임워크를 소개했습니다. 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 실행 단계에서는 지식 기반이나 환경과 같은 외부 소스와 인터페이스하고 정보를 수집할 수 있습니다. | ||
| [Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다. |
There was a problem hiding this comment.
"추론 추적" 및 "작업별 작업"을 영문 병기하면 어떨까 합니다!
사유는 본문에 italic 체로 표현된 용어 이기 때문입니다!
There was a problem hiding this comment.
추가로, task-specific actions 를 "작업별 작업"으로 번역 시 task 와 action 이 구분되지 않으니 "작업별 동작" 이나 "작업별 행동" 등 다른 표현을 사용하면 어떨까 싶습니다.
(이후 action 의 번역은 이에 따라 통일.)
There was a problem hiding this comment.
작업별 행동으로 하였고, heozeop 님이 말씀해주신 것처럼 영문 병기 같이 하였습니다.
| [Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다. | ||
|
|
||
| ReAct 프레임워크를 사용하면 LLMs이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다. | ||
| 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 작업 단계\(action step\)에서는 지식 기반이나 환경과 같은 외부 소스와 상호 작요하고 정보를 수집할 수 있습니다. |
|
|
||
| ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다. | ||
|
|
||
| 연구 결과에 따르면 ReAct는 언어 및 의사 결정 작업에서 여러 최신 기술의 기준선을의능가할 수 있는 것으로 나타났습니다. 또한 ReAct는 인간의 해석 가능성과 LLMs의 신뢰성을 향상시킵니다. 전반적으로 저자들은 추론 과정에서 얻은 내부 지식과 외부 정보를 모두 사용할 수 있는 생각의 연쇄(CoT)와 함께 ReAct를 사용하는 것이 가장 좋은 접근 방식이라는 사실을 발견했습니다. |
| Question What is the elevation range for the area that the eastern sector of the | ||
| Colorado orogeny extends into? | ||
| Thought 1 I need to search Colorado orogeny, find the area that the eastern sector | ||
| of the Colorado orogeny extends into, then find the elevation range of the | ||
| area. | ||
| Action 1 Search[Colorado orogeny] | ||
| Observation 1 The Colorado orogeny was an episode of mountain building (an orogeny) in | ||
| Colorado and surrounding areas. | ||
| Thought 2 It does not mention the eastern sector. So I need to look up eastern | ||
| sector. | ||
| Action 2 Lookup[eastern sector] | ||
| Observation 2 (Result 1 / 1) The eastern sector extends into the High Plains and is called | ||
| the Central Plains orogeny. | ||
| Thought 3 The eastern sector of Colorado orogeny extends into the High Plains. So I | ||
| need to search High Plains and find its elevation range. | ||
| Action 3 Search[High Plains] | ||
| Observation 3 High Plains refers to one of two distinct land regions | ||
| Thought 4 I need to instead search High Plains (United States). | ||
| Action 4 Search[High Plains (United States)] | ||
| Observation 4 The High Plains are a subregion of the Great Plains. From east to west, the | ||
| High Plains rise in elevation from around 1,800 to 7,000 ft (550 to 2,130 | ||
| m).[3] | ||
| Thought 5 High Plains rise in elevation from around 1,800 to 7,000 ft, so the answer | ||
| is 1,800 to 7,000 ft. | ||
| Action 5 Finish[1,800 to 7,000 ft] |
There was a problem hiding this comment.
실제 동작한 것을 보여준 것이라 번역하면 실동작과 달라질 수 있을 것 같아 번역하지 않았는데,
번역하는 것이 맞는거 같네요.
| ... | ||
| ``` | ||
|
|
||
| 다른 형태의 작업을 위해서는 다른 프롬프트가 사용되는 것에 유의하세요. 추론이 가장 중요한 작업(예: HotpotQA)의 경우, 작업 해결 궤적에 여러 생각-행동-관찰 단계가 사용됩니다. 많은 행동 단계가 포함되는 의사 결정의 경우, 생각은 드물게 사용됩니다. |
There was a problem hiding this comment.
"작업 해결 궤적" 이라는 표현이 어색하다고 생각했습니다!
"작업 해결 과정"이라는 표현은 어떨까요?
There was a problem hiding this comment.
task solving trajectories 를 앞에서부터 계속 "작업 해결 궤적"으로 번역해왔는데, "궤적"으로 직역하는 게 나을지 "과정" 등의 표현으로 의역하는 게 나을지 Notion에서 논의해보면 좋을 듯하네요.
| 구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요. | ||
|
|
||
| ``` python | ||
| agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?") |
There was a problem hiding this comment.
아래 쪽(146~)과 여기 모두 일부로 번역하시지 않을 걸까요?
그렇다면 사유가 궁금합니다!
There was a problem hiding this comment.
으앜 번역 리뷰하다가 이걸 보니까 "일부러"라고 고쳐 드리고 싶어지네요;;
아무튼 특별한 이유가 없다면 따옴표 안에 있는 프롬프트 문자열 부분은 번역해주는 편이 독자들의 이해에 도움이 될 것 같습니다.
There was a problem hiding this comment.
LLM 과 상호작용한 내용인 것 같아 번역하지 않고 놔두었는데, 번역하는 것이 맞는 것 같습니다.
번역해서 올려놓겠습니다.
| "Harry Styles, Olivia Wilde's boyfriend, is 29 years old and his age raised to the 0.23 power is 2.169459462491557." | ||
| ``` | ||
|
|
||
| 이 예제는 [LangChain 문서](https://python.langchain.com/docs/modules/agents/agent_types/react)에서 가져온 것이므로 해당 문서에 크레딧이 있습니다. 우리는 학습자가 다양한 도구와 작업의 조합을 탐색해 볼 것을 권장합니다. |
There was a problem hiding this comment.
"크레딧" 이라는 표현이 잘 번역되면 좋을 것 같아요!
"공로"라는 표현은 어떨까요?
| 아래 그림은 Directional Stimulus 프롬프팅이 표준 프롬프팅과 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다. | ||
|
|
||
| <Screenshot src={DSP} alt="DSP" /> | ||
| Image Source: [Li et al., (2023)](https://arxiv.org/abs/2302.11520) |
| 조정 가능한 정책 언어모델\(Tuneable policy LM\)은 자극\(stimulus\)/힌트\(hint\)를 생성하도록 훈련됩니다. 대규모언어모델을 최적화하기 위해 RL을 더 많이 사용하고 있습니다. | ||
|
|
||
| 아래 그림은 Directional Stimulus 프롬프트가 표준 프롬프트와 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다. | ||
| 아래 그림은 Directional Stimulus 프롬프팅이 표준 프롬프팅과 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다. |
There was a problem hiding this comment.
Directional Stimulus Prompting 은 "방향 자극 프롬프팅" 혹은 다른 적절한 번역으로의 논의를 진행해보면 좋을 듯합니다.
(적절한 번역 표현을 찾을 경우, 이 부분과 제목에 각각 한영 병기를 하도록 수정)
There was a problem hiding this comment.
frozen 은 동결되어 있다는 의미에서 "고정된"을 의미하곤 하는데, "블랙박스 고정 LLM" 정도로 번역하면 이상할까요?
There was a problem hiding this comment.
기술 용어는 일반적으로 통용되는 단어가 있는게 아니면 영문 그대로 사용되는게 더 좋을 수도 있다고 생각합니다.
노션에 올려놓겠습니다.
| import REACT2 from '../../img/react/alfworld.png' | ||
|
|
||
| [Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 LLM을 사용하여 추론 추적과 작업별 액션을 인터리브 방식으로 생성하는 프레임워크를 소개했습니다. 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 실행 단계에서는 지식 기반이나 환경과 같은 외부 소스와 인터페이스하고 정보를 수집할 수 있습니다. | ||
| [Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다. |
There was a problem hiding this comment.
추가로, task-specific actions 를 "작업별 작업"으로 번역 시 task 와 action 이 구분되지 않으니 "작업별 동작" 이나 "작업별 행동" 등 다른 표현을 사용하면 어떨까 싶습니다.
(이후 action 의 번역은 이에 따라 통일.)
| ReAct 프레임워크를 사용하면 LLMs이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다. | ||
| 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 작업 단계\(action step\)에서는 지식 기반이나 환경과 같은 외부 소스와 상호 작요하고 정보를 수집할 수 있습니다. | ||
|
|
||
| ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다. |
There was a problem hiding this comment.
response 는 "대응"보다는 "응답"이 좋지 않을까 싶습니다.
|
|
||
| ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다. | ||
|
|
||
| 연구 결과에 따르면 ReAct는 언어 및 의사 결정 작업에서 여러 최신 기술의 기준선을의능가할 수 있는 것으로 나타났습니다. 또한 ReAct는 인간의 해석 가능성과 LLMs의 신뢰성을 향상시킵니다. 전반적으로 저자들은 추론 과정에서 얻은 내부 지식과 외부 정보를 모두 사용할 수 있는 생각의 연쇄(CoT)와 함께 ReAct를 사용하는 것이 가장 좋은 접근 방식이라는 사실을 발견했습니다. |
There was a problem hiding this comment.
LLMs 의 복수형 표기는 한국어 문서에서는 불필요하여, LLM 으로 단수형으로 작성하는 게 좋을 것 같습니다.
| agent = initialize_agent(tools, llm, agent="zero-shot-react-description", verbose=True) | ||
| ``` | ||
|
|
||
| 구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요. |
There was a problem hiding this comment.
the paper 는 "백서"라고도 할 수 있지만 "논문"으로 통일하는 게 어떨까 싶습니다.
| 구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요. | ||
|
|
||
| ``` python | ||
| agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?") |
There was a problem hiding this comment.
으앜 번역 리뷰하다가 이걸 보니까 "일부러"라고 고쳐 드리고 싶어지네요;;
아무튼 특별한 이유가 없다면 따옴표 안에 있는 프롬프트 문자열 부분은 번역해주는 편이 독자들의 이해에 도움이 될 것 같습니다.
| agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?") | ||
| ``` | ||
|
|
||
| 체인 실행은 다음과 같습니다: |
There was a problem hiding this comment.
chain execution 은 "연쇄적인 실행" 이나 다른 적절한 표현으로 번역할 수 있지 않을까 싶네요.
There was a problem hiding this comment.
영문 병기해놓는게 더 좋을 것 같아, 영문 병기해놓았습니다.
| import MCOT from '../../img/multimodal-cot.png' | ||
|
|
||
| [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프트 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거를 생성합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보를 활용하여 답변을 도출합니다. | ||
| [Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프팅 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식\(language modality\)에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거 생성\(rationale generation\)을 포함합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보적 근거들\(informative generated rationales\)을 활용하여 답변을 도출합니다. |
There was a problem hiding this comment.
원문에는 chain-of-thought 로 풀어서 써 있네요.
chain of thought 관련 용어 논의에 따라 "멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)"으로 작성하는 건 어떨까요?
"멀티모달" 또한 적절한 번역어를 찾거나 영문 병기를 하는 게 좋을 듯 해서요.
아니면 CoT에 대해 명확히 하고 싶다면
"멀티모달(multimodal) 생각의 사슬(chain-of-thought; CoT) 프롬프팅"으로 해도 되고요.
♯ Type (복수 선택 가능)
📁 Files
pages/techniques/dsp.kr.mdxpages/techniques/graph.kr.mdxpages/techniques/multimodalcot.kr.mdxpages/techniques/react.kr.mdx✍️ Comment