Discussion about this post

User's avatar
Henry's avatar

东锡学长你好,我是现在在乌普萨拉就读language technology的学生,目前也在做prompt-learning方向的毕设,因为没有找到一个私信的入口,所以就在这里评论哈哈,想请教您一些关于自己现在这个毕设的问题。我现在在用OpenPrompt的框架来做一个对某对话型数据进行文本分类的任务,用GPT-2这样的模型确实能做到few-shot(3%的全量数据)就能有60%左右的acc,相比之前全量数据fine-tune模型85%,3%数据fine-tune大概20%的acc来讲肯定有进步。但后面就陷入了改OpenPrompt不同Component的情况,比如做数据的预处理/改改Template/换模型/换一种找verblaizer里面label words的方法/换few-shot sampling的方法等等。东改西改,也没有更多的acc提升。

有三个问题想请教您,一是您觉得这种情况(中小模型,不冻结模型的prompt-tuning)有其他什么trick是您看论文时觉得很有用,可以尝试的idea呢?二是您觉得写thesis怎么组织比较好呢?目前比较粗糙的想法是template一节,verbalizer一节,模型一节,数据一节等等,每节分别写改变这个component的实验。但是总感觉每一节的实验的motivation有点浅,没什么贡献(比如template可能就是换几句话而已,感觉很炼丹)三是现在写thesis,公司的老板希望我加入一些现在大模型,model frozen的In-context learning方法,比较追前沿一点,但是学校的导师觉得这个方向已经超出我毕设论文的scope了,觉得没办法写进thesis。您是怎么看的呢?不知道是不是有些太伸手党,总之非常感谢!

Expand full comment
4 more comments...

No posts