Takumi Ito 伊藤拓海

Takumi Ito 伊藤拓海

Langsmith Inc.

Biography

My current research interest is in writing assistance that applies natural language processing. To implement research results in the real world, I established Langsmith Inc. with Tatsuki Kuribayashi.

Interests
  • Natural Language Processing
  • Automatic writing assistance
  • Natural language generation
Education
  • PhD of Information Science, 2023

    Tohoku University

  • Master of Information Science, 2020

    Tohoku University

  • Bachelor of Engineering, 2018

    Tohoku University

Experience

 
 
 
 
 
Researcher (学術研究員)
May 2023 – Present
 
 
 
 
 
Visiting Researcher at Utrecht University
July 2022 – December 2022 Utrecht, The Netherlands
 
 
 
 
 
日本学術振興会特別研究員(DC2)
April 2021 – March 2023
研究課題名:英語論文執筆における推敲過程の数理的モデリング
 
 
 
 
 
3rd Data Science Summer School in Göttingen
August 2019 – August 2019
 
 
 
 
 
データ科学国際共同大学院 プログラム学生
April 2019 – March 2023
 
 
 
 
 
共同創業者
May 2018 – Present 東京都豊島区東池袋3-1-1

Accomplish­ments

若手奨励賞
自然言語生成タスクの自動評価指標のためのドメイン外検出. 伊藤拓海 (東北大)
See certificate
委員特別賞
計算資源が限られた複数組織での出力選択による協働の検討. 伊藤郁海 (東北大), 伊藤拓海 (東北大/Langsmith), 鈴木潤, 乾健太郎 (東北大/理研)
See certificate
第29回年次大会スポンサー賞 日本電気賞
計算資源が限られた複数組織での出力選択による協働の検討. 伊藤郁海 (東北大), 伊藤拓海 (東北大/Langsmith), 鈴木潤, 乾健太郎 (東北大/理研)
See certificate
第16回(2021年)AAMT長尾賞
Team Tohoku-AIP-NTT at WMT-2020 (メンバー:清野 舜, 伊藤 拓海, 今野 颯人, 森下 睦, 鈴木 潤)
See certificate
言語処理学会第27回年次大会 委員特別賞
予測の正確な言語モデルがヒトらしいとは限らない. 栗林樹生 (東北大/Langsmith), 大関洋平 (東大/理研), 伊藤拓海 (東北大/Langsmith), 吉田遼 (東大), 浅原正幸 (国語研), 乾健太郎 (東北大/理研)
See certificate
東北大学 総長賞
JPHACKS 2017  決勝進出 デザインワンジャパン賞

Recent Publications

Quickly discover relevant content by filtering publications.
(2023). Investigating the Effectiveness of Multiple Expert Models Collaboration. Findings of the Association for Computational Linguistics: EMNLP 2023.

Cite DOI URL

(2023). Challenges in Reproducing Human Evaluation Results for Role-Oriented Dialogue Summarization. Proceedings of the 3rd Workshop on Human Evaluation of NLP Systems.

Cite URL

(2023). Missing Information, Unresponsive Authors, Experimental Flaws: The Impossibility of Assessing the Reproducibility of Previous Human Evaluations in NLP. The Fourth Workshop on Insights from Negative Results in NLP.

Cite URL

(2022). Prompt Sensitivity of Language Model for Solving Programming Problems. New Trends in Intelligent Software Methodologies, Tools and Techniques.

Cite DOI

(2021). Lower Perplexity is Not Always Human-Like. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers).

Cite DOI URL