Skip to content

Translate dsp, graph, multimodalcot, react files#8

Merged
11mLLM merged 2 commits into11mLLM:01_Techfrom
won81:01_Tech
Jul 28, 2023
Merged

Translate dsp, graph, multimodalcot, react files#8
11mLLM merged 2 commits into11mLLM:01_Techfrom
won81:01_Tech

Conversation

@won81
Copy link
Copy Markdown
Collaborator

@won81 won81 commented Jul 23, 2023

♯ Type (복수 선택 가능)

  • 초벌 번역
  • 번역 보강

📁 Files

  • pages/techniques/dsp.kr.mdx
  • pages/techniques/graph.kr.mdx
  • pages/techniques/multimodalcot.kr.mdx
  • pages/techniques/react.kr.mdx

✍️ Comment

  • dsp, graph, multimodal 파일은 기존 번역에서 조금 수정하였습니다.
  • react 는 내용이 변경되어 번역하였습니다.

Signed-off-by: Jungwon Kim <jungwon81@gmail.com>
@won81
Copy link
Copy Markdown
Collaborator Author

won81 commented Jul 24, 2023

@LEE-YE-JI 님 리뷰 부탁드리겠습니다.

@won81
Copy link
Copy Markdown
Collaborator Author

won81 commented Jul 24, 2023

@mel-f-dev 님 리뷰 부탁드리겠습니다.

@won81
Copy link
Copy Markdown
Collaborator Author

won81 commented Jul 24, 2023

@icetiredisgettingbear 님 리뷰 부탁드리겠습니다.

@11mLLM 11mLLM added documentation Improvements or additions to documentation enhancement New feature or request labels Jul 24, 2023
@11mLLM 11mLLM linked an issue Jul 26, 2023 that may be closed by this pull request
14 tasks
@11mLLM 11mLLM requested review from 100pearlcent, hye-k and mel-f-dev and removed request for 100pearlcent July 26, 2023 14:11
@11mLLM
Copy link
Copy Markdown
Collaborator

11mLLM commented Jul 26, 2023

@mel-f-dev, @icetiredisgettingbear
리뷰를 기다리고있습니다!

Signed-off-by: Jungwon Kim <jungwon81@gmail.com>
@11mLLM 11mLLM merged commit 4def895 into 11mLLM:01_Tech Jul 28, 2023
Copy link
Copy Markdown
Collaborator

@heozeop heozeop left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

수고 많으셨습니다! 라인 잘 맞춰주셔서 내용 파악이 수월했습니다!
몇몇 수정은 제 개인 취향이라 보시고 의견 나누면 좋겠습니다!
감사합니다!

[Li et al., (2023)](https://arxiv.org/abs/2302.11520) 에서는 원하는 요약을 생성하는 데 있어 대규모언어모델을 더 잘 안내하는 새로운 프롬프팅 기법을 제안합니다.

조정 가능한 정책 LM은 자극/힌트를 생성하도록 훈련됩니다. LLMs을 최적화하기 위해 RL을 더 많이 사용하고 있습니다.
조정 가능한 정책 언어모델\(Tuneable policy LM\)은 자극\(stimulus\)/힌트\(hint\)를 생성하도록 훈련됩니다. 대규모언어모델을 최적화하기 위해 RL을 더 많이 사용하고 있습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

RL의 경우, 다음 논문의 abstraction 보니 'Reinforcement Learning'의 약자로 보입니다. 이것도 "강화 학습"정도로 번역하면 어떨까 합니다!

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

감사합니다. 강화 학습으로 변경해서 올리겠습니다.

import MCOT from '../../img/multimodal-cot.png'

[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프트 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거를 생성합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보를 활용하여 답변을 도출합니다.
[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프팅 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식\(language modality\)에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거 생성\(rationale generation\)을 포함합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보적 근거들\(informative generated rationales\)을 활용하여 답변을 도출합니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"최근 멀티모달 CoT" 부분의 CoT를 영문 병기하면 좋을 것 같습니다.

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

원문에는 chain-of-thought 로 풀어서 써 있네요.
chain of thought 관련 용어 논의에 따라 "멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)"으로 작성하는 건 어떨까요?
"멀티모달" 또한 적절한 번역어를 찾거나 영문 병기를 하는 게 좋을 듯 해서요.

아니면 CoT에 대해 명확히 하고 싶다면
"멀티모달(multimodal) 생각의 사슬(chain-of-thought; CoT) 프롬프팅"으로 해도 되고요.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)" 로 변경하는 것이 좋을 것 같아 수정하겠습니다.
감사합니다.

import REACT2 from '../../img/react/alfworld.png'

[Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 LLM을 사용하여 추론 추적과 작업별 액션을 인터리브 방식으로 생성하는 프레임워크를 소개했습니다. 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 실행 단계에서는 지식 기반이나 환경과 같은 외부 소스와 인터페이스하고 정보를 수집할 수 있습니다.
[Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"추론 추적" 및 "작업별 작업"을 영문 병기하면 어떨까 합니다!
사유는 본문에 italic 체로 표현된 용어 이기 때문입니다!

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

추가로, task-specific actions 를 "작업별 작업"으로 번역 시 taskaction 이 구분되지 않으니 "작업별 동작" 이나 "작업별 행동" 등 다른 표현을 사용하면 어떨까 싶습니다.
(이후 action 의 번역은 이에 따라 통일.)

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

작업별 행동으로 하였고, heozeop 님이 말씀해주신 것처럼 영문 병기 같이 하였습니다.

[Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다.

ReAct 프레임워크를 사용하면 LLMs이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다.
추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 작업 단계\(action step\)에서는 지식 기반이나 환경과 같은 외부 소스와 상호 작요하고 정보를 수집할 수 있습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

상호 작용 오타입니다!

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

감사합니다.


ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다.

연구 결과에 따르면 ReAct는 언어 및 의사 결정 작업에서 여러 최신 기술의 기준선을의능가할 수 있는 것으로 나타났습니다. 또한 ReAct는 인간의 해석 가능성과 LLMs의 신뢰성을 향상시킵니다. 전반적으로 저자들은 추론 과정에서 얻은 내부 지식과 외부 정보를 모두 사용할 수 있는 생각의 연쇄(CoT)와 함께 ReAct를 사용하는 것이 가장 좋은 접근 방식이라는 사실을 발견했습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"기준선을의" 부분을 오류로 추정됩니다!

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

감사합니다.

Comment on lines +45 to +69
Question What is the elevation range for the area that the eastern sector of the
Colorado orogeny extends into?
Thought 1 I need to search Colorado orogeny, find the area that the eastern sector
of the Colorado orogeny extends into, then find the elevation range of the
area.
Action 1 Search[Colorado orogeny]
Observation 1 The Colorado orogeny was an episode of mountain building (an orogeny) in
Colorado and surrounding areas.
Thought 2 It does not mention the eastern sector. So I need to look up eastern
sector.
Action 2 Lookup[eastern sector]
Observation 2 (Result 1 / 1) The eastern sector extends into the High Plains and is called
the Central Plains orogeny.
Thought 3 The eastern sector of Colorado orogeny extends into the High Plains. So I
need to search High Plains and find its elevation range.
Action 3 Search[High Plains]
Observation 3 High Plains refers to one of two distinct land regions
Thought 4 I need to instead search High Plains (United States).
Action 4 Search[High Plains (United States)]
Observation 4 The High Plains are a subregion of the Great Plains. From east to west, the
High Plains rise in elevation from around 1,800 to 7,000 ft (550 to 2,130
m).[3]
Thought 5 High Plains rise in elevation from around 1,800 to 7,000 ft, so the answer
is 1,800 to 7,000 ft.
Action 5 Finish[1,800 to 7,000 ft]
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

일부로 번역하지 않으신 것인지 궁금합니다!

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

실제 동작한 것을 보여준 것이라 번역하면 실동작과 달라질 수 있을 것 같아 번역하지 않았는데,
번역하는 것이 맞는거 같네요.

...
```

다른 형태의 작업을 위해서는 다른 프롬프트가 사용되는 것에 유의하세요. 추론이 가장 중요한 작업(예: HotpotQA)의 경우, 작업 해결 궤적에 여러 생각-행동-관찰 단계가 사용됩니다. 많은 행동 단계가 포함되는 의사 결정의 경우, 생각은 드물게 사용됩니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"작업 해결 궤적" 이라는 표현이 어색하다고 생각했습니다!
"작업 해결 과정"이라는 표현은 어떨까요?

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

task solving trajectories 를 앞에서부터 계속 "작업 해결 궤적"으로 번역해왔는데, "궤적"으로 직역하는 게 나을지 "과정" 등의 표현으로 의역하는 게 나을지 Notion에서 논의해보면 좋을 듯하네요.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

노션에 올렸습니다.

구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요.

``` python
agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?")
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

아래 쪽(146~)과 여기 모두 일부로 번역하시지 않을 걸까요?
그렇다면 사유가 궁금합니다!

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

으앜 번역 리뷰하다가 이걸 보니까 "일부러"라고 고쳐 드리고 싶어지네요;;

아무튼 특별한 이유가 없다면 따옴표 안에 있는 프롬프트 문자열 부분은 번역해주는 편이 독자들의 이해에 도움이 될 것 같습니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

LLM 과 상호작용한 내용인 것 같아 번역하지 않고 놔두었는데, 번역하는 것이 맞는 것 같습니다.
번역해서 올려놓겠습니다.

"Harry Styles, Olivia Wilde's boyfriend, is 29 years old and his age raised to the 0.23 power is 2.169459462491557."
```

이 예제는 [LangChain 문서](https://python.langchain.com/docs/modules/agents/agent_types/react)에서 가져온 것이므로 해당 문서에 크레딧이 있습니다. 우리는 학습자가 다양한 도구와 작업의 조합을 탐색해 볼 것을 권장합니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

"크레딧" 이라는 표현이 잘 번역되면 좋을 것 같아요!
"공로"라는 표현은 어떨까요?

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

감사합니다.

@neont21 neont21 mentioned this pull request Jul 30, 2023
아래 그림은 Directional Stimulus 프롬프팅이 표준 프롬프팅과 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다.

<Screenshot src={DSP} alt="DSP" />
Image Source: [Li et al., (2023)](https://arxiv.org/abs/2302.11520)
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Image Source이미지 출처로 번역하기로 했습니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

변경하였습니다. 감사합니다.

조정 가능한 정책 언어모델\(Tuneable policy LM\)은 자극\(stimulus\)/힌트\(hint\)를 생성하도록 훈련됩니다. 대규모언어모델을 최적화하기 위해 RL을 더 많이 사용하고 있습니다.

아래 그림은 Directional Stimulus 프롬프트가 표준 프롬프트와 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다.
아래 그림은 Directional Stimulus 프롬프팅이 표준 프롬프팅과 어떻게 비교되는지 보여줍니다. 정책 LM은 블랙박스 frozen LLM을 안내하는 힌트를 생성하기 위해 작게 최적화될 수 있습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Directional Stimulus Prompting 은 "방향 자극 프롬프팅" 혹은 다른 적절한 번역으로의 논의를 진행해보면 좋을 듯합니다.
(적절한 번역 표현을 찾을 경우, 이 부분과 제목에 각각 한영 병기를 하도록 수정)

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

frozen 은 동결되어 있다는 의미에서 "고정된"을 의미하곤 하는데, "블랙박스 고정 LLM" 정도로 번역하면 이상할까요?

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

기술 용어는 일반적으로 통용되는 단어가 있는게 아니면 영문 그대로 사용되는게 더 좋을 수도 있다고 생각합니다.
노션에 올려놓겠습니다.

import REACT2 from '../../img/react/alfworld.png'

[Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 LLM을 사용하여 추론 추적과 작업별 액션을 인터리브 방식으로 생성하는 프레임워크를 소개했습니다. 추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 실행 단계에서는 지식 기반이나 환경과 같은 외부 소스와 인터페이스하고 정보를 수집할 수 있습니다.
[Yao et al., 2022](https://arxiv.org/abs/2210.03629)에서는 대규모언어모델을 사용하여 추론 추적과 작업별 작업을 인터리브 방식으로 생성하는 ReAct라는 프레임워크를 소개했습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

추가로, task-specific actions 를 "작업별 작업"으로 번역 시 taskaction 이 구분되지 않으니 "작업별 동작" 이나 "작업별 행동" 등 다른 표현을 사용하면 어떨까 싶습니다.
(이후 action 의 번역은 이에 따라 통일.)

ReAct 프레임워크를 사용하면 LLMs이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다.
추론 추적을 생성하면 모델이 실행 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있습니다. 작업 단계\(action step\)에서는 지식 기반이나 환경과 같은 외부 소스와 상호 작요하고 정보를 수집할 수 있습니다.

ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

response 는 "대응"보다는 "응답"이 좋지 않을까 싶습니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

감사합니다.


ReAct 프레임워크를 사용하면 대규모언어모델이 외부 도구와 상호 작용하여 보다 신뢰할 수 있고 사실적인 대응으로 이어지는 추가 정보를 검색할 수 있습니다.

연구 결과에 따르면 ReAct는 언어 및 의사 결정 작업에서 여러 최신 기술의 기준선을의능가할 수 있는 것으로 나타났습니다. 또한 ReAct는 인간의 해석 가능성과 LLMs의 신뢰성을 향상시킵니다. 전반적으로 저자들은 추론 과정에서 얻은 내부 지식과 외부 정보를 모두 사용할 수 있는 생각의 연쇄(CoT)와 함께 ReAct를 사용하는 것이 가장 좋은 접근 방식이라는 사실을 발견했습니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

LLMs 의 복수형 표기는 한국어 문서에서는 불필요하여, LLM 으로 단수형으로 작성하는 게 좋을 것 같습니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

대규모언어모델로 변경하였습니다.

agent = initialize_agent(tools, llm, agent="zero-shot-react-description", verbose=True)
```

구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

the paper 는 "백서"라고도 할 수 있지만 "논문"으로 통일하는 게 어떨까 싶습니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

좋은 것 같습니다.

구성이 완료되면, 우리는 이제 원하는 쿼리/프롬프트로 에이전트를 실행할 수 있습니다. 여기서는 백서에서 설명하는 것처럼 퓨샷 견본을 제공하지 않는다는 점에 유의하세요.

``` python
agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?")
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

으앜 번역 리뷰하다가 이걸 보니까 "일부러"라고 고쳐 드리고 싶어지네요;;

아무튼 특별한 이유가 없다면 따옴표 안에 있는 프롬프트 문자열 부분은 번역해주는 편이 독자들의 이해에 도움이 될 것 같습니다.

agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?")
```

체인 실행은 다음과 같습니다:
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

chain execution 은 "연쇄적인 실행" 이나 다른 적절한 표현으로 번역할 수 있지 않을까 싶네요.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

영문 병기해놓는게 더 좋을 것 같아, 영문 병기해놓았습니다.

import MCOT from '../../img/multimodal-cot.png'

[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프트 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거를 생성합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보를 활용하여 답변을 도출합니다.
[Zhang et al. (2023)](https://arxiv.org/abs/2302.00923)은 최근 멀티모달 CoT 프롬프팅 접근 방식을 제안했습니다. 기존의 CoT는 언어 양식\(language modality\)에 중점을 둡니다. 반면, 멀티모달 CoT는 텍스트와 이미지를 2단계 프레임워크에 통합합니다. 첫 번째 단계에서는 멀티모달 정보를 기반으로 근거 생성\(rationale generation\)을 포함합니다. 그 다음에는 두 번째 단계인 답변 추론이 이어지며, 이 단계에서는 생성된 정보적 근거들\(informative generated rationales\)을 활용하여 답변을 도출합니다.
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

원문에는 chain-of-thought 로 풀어서 써 있네요.
chain of thought 관련 용어 논의에 따라 "멀티모달 생각의 사슬 프롬프팅(multimodal chain-of-thought prompting)"으로 작성하는 건 어떨까요?
"멀티모달" 또한 적절한 번역어를 찾거나 영문 병기를 하는 게 좋을 듯 해서요.

아니면 CoT에 대해 명확히 하고 싶다면
"멀티모달(multimodal) 생각의 사슬(chain-of-thought; CoT) 프롬프팅"으로 해도 되고요.

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

하단의 Image Source이미지 출처로 번역합니다.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

documentation Improvements or additions to documentation enhancement New feature or request

Projects

No open projects

Development

Successfully merging this pull request may close these issues.

Techniques

6 participants