<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[株式会社 ELYZAのフィード]]></title><description><![CDATA[ZennのPublication「株式会社 ELYZA」のRSSフィードです]]></description><link>https://zenn.dev/p/elyza</link><image><url>https://static.zenn.studio/user-upload/avatar/c588deccac.jpeg</url><title>株式会社 ELYZAのフィード</title><link>https://zenn.dev/p/elyza</link></image><generator>zenn.dev</generator><lastBuildDate>Wed, 22 Apr 2026 13:34:17 GMT</lastBuildDate><atom:link href="https://zenn.dev/p/elyza/feed" rel="self" type="application/rss+xml"/><language><![CDATA[ja]]></language><item><title><![CDATA[Rubric × LLM-as-a-Judge でLLMアプリの回帰テストを行う]]></title><description><![CDATA[
 はじめに

はじめまして、ELYZAで機械学習エンジニアのインターンをしている梶本です。
ELYZAのソリューション事業では、コールセンター向け通話要約作成・メール回答草案生成など、異なるタスクの多数のLLMアプリを共通基盤システム上で開発・運用しています。共通基盤システムのコードベースには機能追加やリファクタリングが頻繁に入るため、各アプリの動作と出力品質を確認する回帰テストが欠かせません。本システムでは各アプリのAPIインターフェースは共通化されているため、end-to-endの回帰テストの実行基盤自体も共通化できており、動作することの確認までであれば簡単に実現できています。
し...]]></description><link>https://zenn.dev/elyza/articles/954e7c76e68340</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/954e7c76e68340</guid><pubDate>Tue, 31 Mar 2026 01:00:07 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--PjYdEHVT--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Rubric%2520%25C3%2597%2520LLM-as-a-Judge%2520%25E3%2581%25A7LLM%25E3%2582%25A2%25E3%2583%2597%25E3%2583%25AA%25E3%2581%25AE%25E5%259B%259E%25E5%25B8%25B0%25E3%2583%2586%25E3%2582%25B9%25E3%2583%2588%25E3%2582%2592%25E8%25A1%258C%25E3%2581%2586%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Keita%2520Kajimoto%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2Q0ZjYyNGUxM2YuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Keita Kajimoto</dc:creator></item><item><title><![CDATA[Agentic LLMの学習基盤と訓練ノウハウ]]></title><description><![CDATA[
 はじめに
こんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)、遠田(@stohda)、中本 (@Ry23849Nakamoto)、平川(@h__must__)です。本記事はLabチームの取り組みの1つとして行ったAgentic LLMの学習についての記事となります。
前半パートとして執筆した記事 では、Agentic Search（検索 + 質問応答）タスクや作成したデータ、得られた知見、訓練したモデルの性能や分析などを紹介しました。一方でAgentとして機能するモデルを学習するには何を使い、どういった実装を行い、何を身に着けさせれば良いのか？ひいては、先進的...]]></description><link>https://zenn.dev/elyza/articles/6192a7832f730c</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/6192a7832f730c</guid><pubDate>Mon, 30 Mar 2026 09:31:04 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--D9OO798w--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Agentic%2520LLM%25E3%2581%25AE%25E5%25AD%25A6%25E7%25BF%2592%25E5%259F%25BA%25E7%259B%25A4%25E3%2581%25A8%25E8%25A8%2593%25E7%25B7%25B4%25E3%2583%258E%25E3%2582%25A6%25E3%2583%258F%25E3%2582%25A6%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Shoetsu%2520Sato%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSVhraVZmRzRBcHRObnhhcmRPX1RlVEM3ZTJIcmhNb3ZscnVvbjQ1MHRmeXVIblE2Yz1zOTYtYw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Shoetsu Sato</dc:creator></item><item><title><![CDATA[LLMのツール利用能力向上に向けたAgentic RL]]></title><description><![CDATA[
 はじめに
こんにちは、ELYZA Lab チームの遠田(@stohda)、佐藤 (@shoetsu_sato) 、中本 (@Ry23849Nakamoto)、平川 (@h__must__) です。本記事では、LLM（大規模言語モデル）のツール利用能力向上に向けたAgentic RLの試みについて、Labチームの取り組みをご紹介します。
ELYZA では、単なる対話システムを超えた、自律的・連続的に行動するLLM（大規模言語モデル）エージェントの研究開発を進めています。ここでのエージェントとは、ユーザが自然言語で与える指示やタスクを理解し、外部情報へのアクセスやプログラムの実行をしなが...]]></description><link>https://zenn.dev/elyza/articles/f661efd62ec44e</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/f661efd62ec44e</guid><pubDate>Mon, 30 Mar 2026 09:28:45 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--0kKuyWCE--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:LLM%25E3%2581%25AE%25E3%2583%2584%25E3%2583%25BC%25E3%2583%25AB%25E5%2588%25A9%25E7%2594%25A8%25E8%2583%25BD%25E5%258A%259B%25E5%2590%2591%25E4%25B8%258A%25E3%2581%25AB%25E5%2590%2591%25E3%2581%2591%25E3%2581%259FAgentic%2520RL%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:stohda%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2FmNDE1M2JjOTguanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>stohda</dc:creator></item><item><title><![CDATA[ルーブリックに基づく主観的な判定を取り入れたGRPO学習]]></title><description><![CDATA[こんにちは。ELYZA Labチームの佐々木です。
以下の記事ではverlというフレームワークを用い、以下のようなカスタムした報酬関数を用いてGRPO学習を行うための手順を紹介しました。この報酬関数は簡単なルールベースとなっていましたが、これを用いることで確かに「指定した文字数に近い要約を出力する」といった目標に向かってGRPO学習が進むことが確認できました。
codeTARGET_LENGTH = 50


def compute_score(data_source, solution_str, ground_truth, extra_info):
    """
    生成された文...]]></description><link>https://zenn.dev/elyza/articles/84c897de6fb26d</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/84c897de6fb26d</guid><pubDate>Fri, 27 Mar 2026 00:07:44 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--TFWM6H9Z--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E3%2583%25AB%25E3%2583%25BC%25E3%2583%2596%25E3%2583%25AA%25E3%2583%2583%25E3%2582%25AF%25E3%2581%25AB%25E5%259F%25BA%25E3%2581%25A5%25E3%2581%258F%25E4%25B8%25BB%25E8%25A6%25B3%25E7%259A%2584%25E3%2581%25AA%25E5%2588%25A4%25E5%25AE%259A%25E3%2582%2592%25E5%258F%2596%25E3%2582%258A%25E5%2585%25A5%25E3%2582%258C%25E3%2581%259FGRPO%25E5%25AD%25A6%25E7%25BF%2592%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Akira%2520Sasaki%2520%2528hiko...%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2Q1NjkxOWZhODcuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Akira Sasaki (hikomimo)</dc:creator></item><item><title><![CDATA[verlによる、カスタムした報酬関数を用いたGRPO学習]]></title><description><![CDATA[こんにちは。ELYZA Labチームの佐々木です。
近年提案された強化学習手法のGRPO [1] は、従来PPO [2] などで用いられていたCriticモデルの学習が不要かつ高性能なことから、DAPO [3]、GSPO [4]、CISPO [5] などの派生手法も含め、直近広く使われる手法となっています。これらの手法は、ルールベース等での自動的な正否判定によりコーディング・数学等の能力向上を図るRLVR [6] の枠組みとも相性が良く、LLMの学習には欠かせない存在となりつつあります。
しかしながら、pre-trainingやSFTに比べて成熟している領域ではないこともあり具体的に「ど...]]></description><link>https://zenn.dev/elyza/articles/0210e34a182669</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/0210e34a182669</guid><pubDate>Thu, 26 Mar 2026 00:04:08 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--FzfY4BxB--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:verl%25E3%2581%25AB%25E3%2582%2588%25E3%2582%258B%25E3%2580%2581%25E3%2582%25AB%25E3%2582%25B9%25E3%2582%25BF%25E3%2583%25A0%25E3%2581%2597%25E3%2581%259F%25E5%25A0%25B1%25E9%2585%25AC%25E9%2596%25A2%25E6%2595%25B0%25E3%2582%2592%25E7%2594%25A8%25E3%2581%2584%25E3%2581%259FGRPO%25E5%25AD%25A6%25E7%25BF%2592%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Akira%2520Sasaki%2520%2528hiko...%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2Q1NjkxOWZhODcuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Akira Sasaki (hikomimo)</dc:creator></item><item><title><![CDATA[NLP2026 参加報告]]></title><description><![CDATA[
 はじめに
こんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)、中本 (@Ry23849Nakamoto) です。
今回はいつものLabからの研究活動の報告とは違い、3/9~13 に宇都宮で開催されたNLP 2026の参加報告についてのカジュアルな内容となります。
NLP（言語処理学会年次大会）は、日本言語処理学会が毎年開催している自然言語処理分野の国内最大級の学会で、大学・研究機関・企業の研究者やエンジニアが集まり、最新の研究成果の発表や議論、企業展示などが行われます。機械翻訳、要約、対話、LLM、評価、言語資源など幅広いトピックが扱われ、日本のNLP分野の研...]]></description><link>https://zenn.dev/elyza/articles/d8e5958bdb86e9</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/d8e5958bdb86e9</guid><pubDate>Wed, 25 Mar 2026 02:56:04 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--8q5yyetu--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_66:NLP2026%2520%25E5%258F%2582%25E5%258A%25A0%25E5%25A0%25B1%25E5%2591%258A%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Shoetsu%2520Sato%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSVhraVZmRzRBcHRObnhhcmRPX1RlVEM3ZTJIcmhNb3ZscnVvbjQ1MHRmeXVIblE2Yz1zOTYtYw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Shoetsu Sato</dc:creator></item><item><title><![CDATA[【RAG ベストプラクティス探索】Reranker用のモデル比較とコスト削減実験]]></title><description><![CDATA[
 はじめに: Reranker何使う？問題
ELYZAで機械学習エンジニアのインターンをしている見目です。
本記事では、RAG システムにおける Reranker のモデル選定の考え方と、LLM を用いた Reranker のコスト削減手法をご紹介します。
Rerankerとは、Embeddingやキーワード一致を用いた初期検索の結果を、より精密な方法で再評価するRAGの主要コンポーネントです。Rerankerには様々なモデル形式がありますが、現在一般的に利用されているのは「Cross Encoder型」と「汎用LLM型」の2種類だと考えています。

Cross Encoder型

ク...]]></description><link>https://zenn.dev/elyza/articles/2642fd1b964fd2</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/2642fd1b964fd2</guid><pubDate>Tue, 03 Mar 2026 01:31:15 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--iS4EvwWC--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E3%2580%2590RAG%2520%25E3%2583%2599%25E3%2582%25B9%25E3%2583%2588%25E3%2583%2597%25E3%2583%25A9%25E3%2582%25AF%25E3%2583%2586%25E3%2582%25A3%25E3%2582%25B9%25E6%258E%25A2%25E7%25B4%25A2%25E3%2580%2591Reranker%25E7%2594%25A8%25E3%2581%25AE%25E3%2583%25A2%25E3%2583%2587%25E3%2583%25AB%25E6%25AF%2594%25E8%25BC%2583%25E3%2581%25A8%25E3%2582%25B3%25E3%2582%25B9%25E3%2583%2588%25E5%2589%258A%25E6%25B8%259B%25E5%25AE%259F%25E9%25A8%2593%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Ryota%2520Kemmoku%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2QzYzY1Njg1ZmUuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Ryota Kemmoku</dc:creator></item><item><title><![CDATA[日本語特化拡散言語モデル「ELYZA-LLM-Diffusion」の公開]]></title><description><![CDATA[
 はじめに
こんにちは、ELYZA Lab チームの Trisitichoke Tasavat です。本記事では、日本語性能に特化した拡散言語モデル (Diffusion LLM) ELYZA-Diffusion-Base-1.0-Dream-7B および ELYZA-Diffusion-Instruct-1.0-Dream-7B の2つのモデルを公開するとともに、その設計背景、学習方法、評価結果について紹介します。
拡散言語モデルとは、近年の画像生成AIの技術をテキストに応用したモデルであり、従来手法の構造上生じる「左から右に生成し、途中で言葉を消したり追加したりしない」という制限を...]]></description><link>https://zenn.dev/elyza/articles/f9dd010e895a34</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/f9dd010e895a34</guid><pubDate>Fri, 16 Jan 2026 01:30:02 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--DKYNNML6--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E6%2597%25A5%25E6%259C%25AC%25E8%25AA%259E%25E7%2589%25B9%25E5%258C%2596%25E6%258B%25A1%25E6%2595%25A3%25E8%25A8%2580%25E8%25AA%259E%25E3%2583%25A2%25E3%2583%2587%25E3%2583%25AB%25E3%2580%258CELYZA-LLM-Diffusion%25E3%2580%258D%25E3%2581%25AE%25E5%2585%25AC%25E9%2596%258B%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:tt%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSmFNMllPelYwSW9sMXpiOUJianBYcXdoUUJ0azJBbXNueGE3N1Y2QkYyNUV3RXpBPXM5Ni1j%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>tt</dc:creator></item><item><title><![CDATA[Copier × Ruff でスケールするLint管理]]></title><description><![CDATA[
 0. はじめに
本記事では、ELYZAのML開発における、マルチリポジトリ構成でスケールするLint管理の取り組みについてご紹介します。
機械学習プロジェクトでは、顧客要件や機能ごとにリポジトリが分かれることが多く、リポジトリ数が増えるにつれて設定管理の複雑性が増していきます。私たちは、Copier × Ruffを組み合わせることで、リポジトリが増えても局所最適に陥らず、組織として成熟し続けるスケーラブルな仕組みを構築しました。
ここで言う「スケールする」とは、単に作業コストが増えないということではありません。より本質的には、議論を集約し知見を統合することで、規模が拡大しても組織全体...]]></description><link>https://zenn.dev/elyza/articles/6c888553a508b5</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/6c888553a508b5</guid><pubDate>Mon, 17 Nov 2025 03:39:02 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--f7VwsZ8H--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Copier%2520%25C3%2597%2520Ruff%2520%25E3%2581%25A7%25E3%2582%25B9%25E3%2582%25B1%25E3%2583%25BC%25E3%2583%25AB%25E3%2581%2599%25E3%2582%258BLint%25E7%25AE%25A1%25E7%2590%2586%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BEELYZA%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2RlYTExMzQwN2IuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>株式会社ELYZA</dc:creator></item><item><title><![CDATA[プロンプトの読み込み・レンダリングを標準化する要件と設計]]></title><description><![CDATA[
 0. はじめに
PoCフェーズを経て、いざ本番環境でLLMを用いた処理を実装する際に、prompt_util.pyのようなプロンプトの読み込みやレンダリングの実装が散在することはないでしょうか。
ELYZAのSolution事業部では、プロンプトの読み込み・レンダリングのための似て非なるボイラープレート再生産を脱するべく、標準化した社内ライブラリを開発しています。本記事では、その取り組みにおける要件・設計及び、それに付随する設計判断についてご紹介します。コード内でのプロンプトの扱いに課題を感じている方の参考になれば幸いです。
なお、本記事に関係する開発は、曽我部(@sog4be)、堤...]]></description><link>https://zenn.dev/elyza/articles/5363cce93d17c7</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/5363cce93d17c7</guid><pubDate>Thu, 06 Nov 2025 02:23:08 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--Rb-JP4PD--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E3%2583%2597%25E3%2583%25AD%25E3%2583%25B3%25E3%2583%2597%25E3%2583%2588%25E3%2581%25AE%25E8%25AA%25AD%25E3%2581%25BF%25E8%25BE%25BC%25E3%2581%25BF%25E3%2583%25BB%25E3%2583%25AC%25E3%2583%25B3%25E3%2583%2580%25E3%2583%25AA%25E3%2583%25B3%25E3%2582%25B0%25E3%2582%2592%25E6%25A8%2599%25E6%25BA%2596%25E5%258C%2596%25E3%2581%2599%25E3%2582%258B%25E8%25A6%2581%25E4%25BB%25B6%25E3%2581%25A8%25E8%25A8%25AD%25E8%25A8%2588%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BEELYZA%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2RlYTExMzQwN2IuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>株式会社ELYZA</dc:creator></item><item><title><![CDATA[Claude Codeに「次のタスクやっといて」ができるタスク管理ツール Task Master を使ってみた]]></title><description><![CDATA[
 タスク管理できない人間のぼやき

ELYZAでプロダクト機械学習エンジニアをやっている中村(@tyo_yo_)です。
新しい機能を実装する際、PRD (プロダクト要求仕様書: Product Requirements Document) から実装すべきタスクを一つひとつ切り出していく作業。「ここはこうで、あそこはああで...」と考えながらチケットを作る時間って、正直コーディングより疲れませんか。
あと、歯を磨いている時にふと「あ、あの不具合直さなきゃ」と思い出す瞬間。スマホを取り出してバックログツールにメモしたり、いつのまにか混沌と化したバックログを見て目を背けてしまったり...
弊...]]></description><link>https://zenn.dev/elyza/articles/49e997dde186aa</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/49e997dde186aa</guid><pubDate>Thu, 16 Oct 2025 21:00:02 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--G0WbNCCk--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Claude%2520Code%25E3%2581%25AB%25E3%2580%258C%25E6%25AC%25A1%25E3%2581%25AE%25E3%2582%25BF%25E3%2582%25B9%25E3%2582%25AF%25E3%2582%2584%25E3%2581%25A3%25E3%2581%25A8%25E3%2581%2584%25E3%2581%25A6%25E3%2580%258D%25E3%2581%258C%25E3%2581%25A7%25E3%2581%258D%25E3%2582%258B%25E3%2582%25BF%25E3%2582%25B9%25E3%2582%25AF%25E7%25AE%25A1%25E7%2590%2586%25E3%2583%2584%25E3%2583%25BC%25E3%2583%25AB%2520Task%2520Master%2520%25E3%2582%2592%25E4%25BD%25BF%25E3%2581%25A3%25E3%2581%25A6%25E3%2581%25BF%25E3%2581%259F%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:tyoyo%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyLzI5OGI2MmMzMmEuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>tyoyo</dc:creator></item><item><title><![CDATA[実サービスへの搭載に向けたLLM AgentとMeta Agentの研究開発]]></title><description><![CDATA[
 はじめに
こんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)です。最近のLabチームの取り組みの1つとして行ってきたLLMエージェント開発の概要とELYZAにおける研究開発の内容について紹介します。
大規模言語モデル（LLM）は単なる対話システムを超えて「エージェント」としての活用が注目されています。エージェントとは、自然言語で与えられたタスクを理解し、外部ツールやデータベースを利用しながら、LLMコールを連続的に行い自律的に問題解決をする仕組みです。最近ではOpenAIやGoogle、Hugging Faceなどが次々にエージェント開発用フレームワークを公開...]]></description><link>https://zenn.dev/elyza/articles/4c78076139a733</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/4c78076139a733</guid><pubDate>Tue, 14 Oct 2025 23:33:34 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--dKgeCji---/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E5%25AE%259F%25E3%2582%25B5%25E3%2583%25BC%25E3%2583%2593%25E3%2582%25B9%25E3%2581%25B8%25E3%2581%25AE%25E6%2590%25AD%25E8%25BC%2589%25E3%2581%25AB%25E5%2590%2591%25E3%2581%2591%25E3%2581%259FLLM%2520Agent%25E3%2581%25A8Meta%2520Agent%25E3%2581%25AE%25E7%25A0%2594%25E7%25A9%25B6%25E9%2596%258B%25E7%2599%25BA%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Shoetsu%2520Sato%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSVhraVZmRzRBcHRObnhhcmRPX1RlVEM3ZTJIcmhNb3ZscnVvbjQ1MHRmeXVIblE2Yz1zOTYtYw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Shoetsu Sato</dc:creator></item><item><title><![CDATA[「AIコーディング時代」だからこそ「ちゃんとする」]]></title><description><![CDATA[ELYZA開発チームのマネージャーのtarunonです。公に何かを出すのは久々になります。
ELYZAは2025年9月9日に、ELYZA Worksとしてサービスを公開しました。
https://prtimes.jp/main/html/rd/p/000000063.000047565.html
我々のチームで開発をしたものですが、開発にあたってAIコーディングは活躍しており、その様子や、これまでの取り組みとの相乗効果について紹介します。

 はじめに
Clineが話題になり、Claude Codeが出てきて、いよいよAIコーディングはソフトウェア開発のメインストリームの話題となりつつあ...]]></description><link>https://zenn.dev/elyza/articles/abb1866b8152fd</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/abb1866b8152fd</guid><pubDate>Wed, 17 Sep 2025 10:42:50 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--znBmlFyO--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E3%2580%258CAI%25E3%2582%25B3%25E3%2583%25BC%25E3%2583%2587%25E3%2582%25A3%25E3%2583%25B3%25E3%2582%25B0%25E6%2599%2582%25E4%25BB%25A3%25E3%2580%258D%25E3%2581%25A0%25E3%2581%258B%25E3%2582%2589%25E3%2581%2593%25E3%2581%259D%25E3%2580%258C%25E3%2581%25A1%25E3%2582%2583%25E3%2582%2593%25E3%2581%25A8%25E3%2581%2599%25E3%2582%258B%25E3%2580%258D%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:tarunon%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EtL0FPaDE0R2dQbnZudUtmX1FRMC02eGo3NlYxbVFlUlN2cWR4WFJjejM5NHdKX3o4PXMyNTAtYw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>tarunon</dc:creator></item><item><title><![CDATA[Speculative Decoding：Faster Inference Without Paying for More GPU]]></title><description><![CDATA[
 はじめに
大規模言語モデル(Large Language Model: LLM)を提供する上で、推論速度は顧客体験を左右する非常に重要な要素です。一方で、LLMのパラメータ数は年々増加し続けており、LLM推論処理速度のボトルネックとなる計算量やRAMとGPUメモリ間のデータ転送時のI/Oボトルネックが実運用上の課題となっています。
ELYZAでは過去に開発したLlama-3.1-ELYZA-JP-70BやELYZA-Shortcut-1.0-Qwen-32BをGoogle Kubernetes Engineに構築した推論基盤上で運用し、顧客やデモ向けに提供しています（2025年7月2...]]></description><link>https://zenn.dev/elyza/articles/4e0b45a8c11220</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/4e0b45a8c11220</guid><pubDate>Thu, 24 Jul 2025 06:33:09 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--Tn6N-gk3--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Speculative%2520Decoding%25EF%25BC%259AFaster%2520Inference%2520Without%2520Paying%2520for%2520...%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Takuro%2520Murayama%2520%2528Y...%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyLzIxOWE0YWY2MzQuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Takuro Murayama (Yamazaki)</dc:creator></item><item><title><![CDATA[[Part3] 日本医療 x LLM: 診療報酬明細書の作成を補助する情報推薦タスク]]></title><description><![CDATA[
 はじめに
本記事は、ELYZAが参加している内閣府SIP第三期プロジェクト「統合ヘルスケアシステムの構築」に関する連載の第三弾をご紹介します。
前回は、医療ユースケースとして、電子カルテ標準化のための情報変換をあげ、日本語版汎用医療LLMを当該ユースケースへ適応させる方法論について詳しくお伝えしました。
今回はことなる医療ユースケースとして、「レセプト修正提案」タスクを対象にご紹介します

技術①: 各ユースケースの根幹となる日本語版汎用医療LLMの開発
技術②: ユースケース1-電子カルテ標準化のための情報変換
技術③: ユースケース2-レセプトの確認修正内容の提案（本記事の焦点）...]]></description><link>https://zenn.dev/elyza/articles/f0734a3a940f79</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/f0734a3a940f79</guid><pubDate>Mon, 14 Jul 2025 03:32:40 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--UjWS8Kr1--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%255BPart3%255D%2520%25E6%2597%25A5%25E6%259C%25AC%25E5%258C%25BB%25E7%2599%2582%2520x%2520LLM%253A%2520%25E8%25A8%25BA%25E7%2599%2582%25E5%25A0%25B1%25E9%2585%25AC%25E6%2598%258E%25E7%25B4%25B0%25E6%259B%25B8%25E3%2581%25AE%25E4%25BD%259C%25E6%2588%2590%25E3%2582%2592%25E8%25A3%259C%25E5%258A%25A9%25E3%2581%2599%25E3%2582%258B%25E6%2583%2585%25E5%25A0%25B1%25E6%258E%25A8%25E8%2596%25A6%25E3%2582%25BF%25E3%2582%25B9%25E3%2582%25AF%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Akira%2520Sasaki%2520%2528hiko...%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2Q1NjkxOWZhODcuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Akira Sasaki (hikomimo)</dc:creator></item><item><title><![CDATA[[Part1] 日本医療 x LLM: ユースケース応用の基盤となる日本語版汎用医療LLMの開発]]></title><description><![CDATA[
 はじめに
本記事では、研究開発チームの最近の取り組みとして「日本の医療分野に特化した日本語医療LLMの開発」について紹介します。
ELYZAは、内閣府戦略的イノベーション創造プログラム(SIP) 第三期 「統合ヘルスケアシステムの構築」 の「日本語版医療 LLM の開発ならびに臨床現場における社会実装検証」 にて、大規模言語モデルの開発部分を担当させていただきました。具体的には、日本国内で起きている医療従事者の不足・過重労働、さらには少子高齢化に伴う医療需要の増大に対する一つの解決策を示すべく、日本の医療分野を想定した様々な実応用タスク（ユースケース）群において、国内外最高水準の性能...]]></description><link>https://zenn.dev/elyza/articles/5fce268a7ecd20</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/5fce268a7ecd20</guid><pubDate>Mon, 14 Jul 2025 03:03:15 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--xvj6H5Vg--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%255BPart1%255D%2520%25E6%2597%25A5%25E6%259C%25AC%25E5%258C%25BB%25E7%2599%2582%2520x%2520LLM%253A%2520%25E3%2583%25A6%25E3%2583%25BC%25E3%2582%25B9%25E3%2582%25B1%25E3%2583%25BC%25E3%2582%25B9%25E5%25BF%259C%25E7%2594%25A8%25E3%2581%25AE%25E5%259F%25BA%25E7%259B%25A4%25E3%2581%25A8%25E3%2581%25AA%25E3%2582%258B%25E6%2597%25A5%25E6%259C%25AC%25E8%25AA%259E%25E7%2589%2588%25E6%25B1%258E%25E7%2594%25A8%25E5%258C%25BB%25E7%2599%2582LLM%25E3%2581%25AE%25E9%2596%258B%25E7%2599%25BA%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:Shoetsu%2520Sato%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EvQUNnOG9jSVhraVZmRzRBcHRObnhhcmRPX1RlVEM3ZTJIcmhNb3ZscnVvbjQ1MHRmeXVIblE2Yz1zOTYtYw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>Shoetsu Sato</dc:creator></item><item><title><![CDATA[LLMを本番品質に育てる PromptOps：”100回の試行錯誤”を支えた仕組みと文化]]></title><description><![CDATA[
 0. はじめに
ELYZAと株式会社マイナビが共同開発した「マイナビAI Pencil」が公開されました。本記事ではこの開発過程において重要な役割を果たした「Prompt Engineering」と、それを支える体系的な運用基盤「PromptOps」について解説します。
「マイナビAI Pencil」については、当社リリースならびにマイナビリリースをご覧ください。

株式会社ELYZA プレスリリース：https://prtimes.jp/main/html/rd/p/000000062.000047565.html

株式会社マイナビ様 プレスリリース：https://www.my...]]></description><link>https://zenn.dev/elyza/articles/3b25b8e44fc280</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/3b25b8e44fc280</guid><pubDate>Mon, 07 Jul 2025 03:06:16 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--5T2-trgn--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:LLM%25E3%2582%2592%25E6%259C%25AC%25E7%2595%25AA%25E5%2593%2581%25E8%25B3%25AA%25E3%2581%25AB%25E8%2582%25B2%25E3%2581%25A6%25E3%2582%258B%2520PromptOps%25EF%25BC%259A%25E2%2580%259D100%25E5%259B%259E%25E3%2581%25AE%25E8%25A9%25A6%25E8%25A1%258C%25E9%258C%25AF%25E8%25AA%25A4%25E2%2580%259D%25E3%2582%2592%25E6%2594%25AF%25E3%2581%2588%25E3%2581%259F%25E4%25BB%2595%25E7%25B5%2584%25E3%2581%25BF%25E3%2581%25A8%25E6%2596%2587%25E5%258C%2596%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:223%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyLzAwNjA5YTdlZmMuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>223</dc:creator></item><item><title><![CDATA[ELYZA-Thinking-1.0: MCTS を用いた推論パス探索と模倣学習による Reasoning Model の開発]]></title><description><![CDATA[
 はじめに
ELYZA は、日本語における論理的思考能力を強化した大規模言語モデル (LLM) である「ELYZA-Thinking-1.0-Qwen-32B」を開発し、商用利用可能な形で一般公開しました。同モデルは OpenAI 社の「o1/o3」シリーズや、DeepSeek 社の「DeepSeek-R1」と同様に、思考の連鎖 (Chain of Thought; CoT) を通して複雑な論理的思考を行う能力を強化した Reasoning Model です。
本記事では、モデルの概要や広範なベンチマーク結果に加え、Reasoning Model を開発する際に用いた技術的な詳細につい...]]></description><link>https://zenn.dev/elyza/articles/bc68f53fc0a83b</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/bc68f53fc0a83b</guid><pubDate>Thu, 01 May 2025 03:51:40 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--fUxNGfIB--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:ELYZA-Thinking-1.0%253A%2520MCTS%2520%25E3%2582%2592%25E7%2594%25A8%25E3%2581%2584%25E3%2581%259F%25E6%258E%25A8%25E8%25AB%2596%25E3%2583%2591%25E3%2582%25B9%25E6%258E%25A2%25E7%25B4%25A2%25E3%2581%25A8%25E6%25A8%25A1%25E5%2580%25A3%25E5%25AD%25A6%25E7%25BF%2592%25E3%2581%25AB%25E3%2582%2588%25E3%2582%258B%2520Reasoning%2520Mod...%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:m.hirakawa%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyLzA1NzQxYTg0OWQuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>m.hirakawa</dc:creator></item><item><title><![CDATA[Developing “Llama-3-ELYZA-JP-120B” Using Depth Up-Scaling]]></title><description><![CDATA[!
※本記事は、以下の記事の英訳版です。
Note: This article is an English translation of the following article.
Depth Up-Scalingを用いた「Llama-3-ELYZA-JP-120B」の開発


 Introduction
Hello, I'm Hirakawa(@h__must__) from ELYZA Research and Development team.
Since May 2024, ELYZA has been engaged in research and development o...]]></description><link>https://zenn.dev/elyza/articles/b5384f5271ba88</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/b5384f5271ba88</guid><pubDate>Wed, 08 Jan 2025 07:33:29 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--XfcM7kgD--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:Developing%2520%25E2%2580%259CLlama-3-ELYZA-JP-120B%25E2%2580%259D%2520Using%2520Depth%2520Up-Scaling%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BEELYZA%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2RlYTExMzQwN2IuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>株式会社ELYZA</dc:creator></item><item><title><![CDATA[日本語MoEモデルの開発と「実りある失敗」]]></title><description><![CDATA[
 はじめに
ELYZA 研究開発チームのSam (@SamPassaglia)、平川 (@h__must__)です。
本記事では、日本語に特化した Mixture of Experts (MoE)モデル構築への挑戦、およびアプローチの転換を余儀なくされた経緯について解説します。
ELYZA は、日本の生成AIの開発力強化を目的とした経済産業省主導のプログラムである Generative AI Accelerator Challenge (GENIAC) に採択され、H100数百基をはじめとする計算資源の利用や関係者間の連携促進等のご支援をいただきながら、2024年5月から8月までの約3...]]></description><link>https://zenn.dev/elyza/articles/be4b91d79acc34</link><guid isPermaLink="true">https://zenn.dev/elyza/articles/be4b91d79acc34</guid><pubDate>Thu, 05 Dec 2024 03:30:01 GMT</pubDate><enclosure url="https://res.cloudinary.com/zenn/image/upload/s--6yHTbXc6--/c_fit%2Cg_north_west%2Cl_text:notosansjp-medium.otf_55:%25E6%2597%25A5%25E6%259C%25AC%25E8%25AA%259EMoE%25E3%2583%25A2%25E3%2583%2587%25E3%2583%25AB%25E3%2581%25AE%25E9%2596%258B%25E7%2599%25BA%25E3%2581%25A8%25E3%2580%258C%25E5%25AE%259F%25E3%2582%258A%25E3%2581%2582%25E3%2582%258B%25E5%25A4%25B1%25E6%2595%2597%25E3%2580%258D%2Cw_1010%2Cx_90%2Cy_100/g_south_west%2Cl_text:notosansjp-medium.otf_34:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BEELYZA%2Cx_220%2Cy_108/bo_3px_solid_rgb:d6e3ed%2Cg_south_west%2Ch_90%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2M1ODhkZWNjYWMuanBlZw==%2Cr_20%2Cw_90%2Cx_92%2Cy_102/co_rgb:6e7b85%2Cg_south_west%2Cl_text:notosansjp-medium.otf_30:%25E6%25A0%25AA%25E5%25BC%258F%25E4%25BC%259A%25E7%25A4%25BE%2520ELYZA%2Cx_220%2Cy_160/bo_4px_solid_white%2Cg_south_west%2Ch_50%2Cl_fetch:aHR0cHM6Ly9zdGF0aWMuemVubi5zdHVkaW8vdXNlci11cGxvYWQvYXZhdGFyL2RlYTExMzQwN2IuanBlZw==%2Cr_max%2Cw_50%2Cx_139%2Cy_84/v1627283836/default/og-base-w1200-v2.png?_a=BACAGSGT" length="0" type="false"/><dc:creator>株式会社ELYZA</dc:creator></item></channel></rss>