天天财汇 购物 网址 万年历 小说 | 三峰软件 小游戏 视频
TxT小说阅读器
↓小说语音阅读,小说下载↓
一键清除系统垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放,产品展示↓
首页 淘股吧 股票涨跌实时统计 涨停板选股 股票入门 股票书籍 股票问答 分时图选股 跌停板选股 K线图选股 成交量选股 [平安银行]
股市论谈 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事
商业财经 科技知识 汽车百科 工程技术 自然科学 家居生活 设计艺术 财经视频 游戏--
  天天财汇 -> 科技知识 -> ACL为什么叫故事汇? -> 正文阅读

[科技知识]ACL为什么叫故事汇?

[收藏本文] 【下载本文】
不做nlp,希望得到一些举例以及解答
就问你标题里的emoji,论文的插图好不好看, 标题够不够eyecatching吧


几年前读到过一篇文章,当时被做法惊到了。好像是句子中抽取短语的任务,以往的做法往往建模成标注任务,然而作者的做法是把attention map作为输入,多个头作为多通道,每一个token试做像素点,用CNN作为模型,把目标的token作为标签进行训练。
初见只觉惊艳,仔细想想觉得很合理:attention map视为图像,attention值具有丰富的token间词法关系;多头视为多通道,完美的契合两者的特性;可以无视flatten或者嵌套的短语…是我看到过nlp和cv完美的结合。
不管效果怎么样,这种文章就是我心中“意料之外,情理之中”的完美体现,也很符合故事的要求。
首先我不是“标准的”科研人员,即一路数学竞赛+名校、学术硕博毕业、工作于科研机构研究院。
环境造人,我只是随着工作变化,从 CRUD 业务开发,走到了投 xxx 这一步 ...
尽管感受不一定对,但相信能提供一个很“异域风情”的视角,看论文这件事。
0x01 质疑的愤青期
这个阶段没自己写过,主要是开发 / 面向客户,所以总觉得大部分工作是没什么卵用的。
要举例子么?虽然不混学术届,还是别直接给链接吧。
远的。记得有一篇动作识别相关的,声称自己更高效,然而第一页 intro 对比图里不提推理耗时;哪怕涉kvcache 优化的论文,也不提自己的真.推理耗时去年的。更多了啊,尤其是 prompt今年的。抽象概念和术语一个又一个,相信投软件工程领域是好归宿
以至于去年做了这样的暴论:


我的无知暴论qaq
https://github.com/bojone/papers.cool/issues/3?github.com/bojone/papers.cool/issues/3?github.com/bojone/papers.cool/issues/3
我不会删掉这些,因为有一天,在卷卷群(ncnn contributors' group)出现了这段话:


愤青 qaq
要知道 ncnn 的代码大都长这样:

#if __ARM_NEON
#if __aarch64__
    nn_max_kk = (max_kk - remain_max_kk_start) / 8;
    #pragma omp parallel for num_threads(nT)
    for (int ppkk = 0; ppkk < nn_max_kk; ppkk++)
    {
        const int kk = remain_max_kk_start + ppkk * 8;

#ifdef _MSC_VER
        __declspec(align(16))
#else
        __attribute__((aligned(16)))
#endif

它 work 就是 work,不 work 就是不 work;没有 idea 要兜售,没有 conclusion & future 要畅想。
trick 只存在于业务理解和指令集实现。
0x02 酸酸的理解期
“理解”是柠檬味的,混合着果实的清香和酸涩。
感谢各位的指导,后来我知道了如下事实:
审稿人大概率跟你的方向没关联审稿人必须要拒掉某个百分比的文章,听起来就跟给人打 C 绩效一样不可抗审核可能是双盲或单盲的
所以一篇论文,最重要的是,要长得像一篇论文..
这不是废话,这意味着,它可以不是一篇论文 qaq
我们又知道在学校任职(吃饭)是要考核论文的。既然是为了吃饭,那我决定不再吐槽任何论文,毕竟谁不要吃饭呢? ..
同时也明白了 papers.cool 为啥只给个 LLM 总结就够了。
不仅如此,通过阅读更多,又发现了一个显而易见的现象:
某篇工作在优化 attn ,这显然很有价值,为啥说只训到 1B 说没钱了?同样是你们厂,另一个组训了百十次 70B2 年前有个尝试揭示 prompt 本质的工作,结论不明确。google brain 却一直支持,是个好地方
在业务领域这通常称作:生态位。项目总包必然话语权更大、拿到的收益更多;软件提供方一般比较弱势(snpe 除外)。商业公司谁挣钱谁老大,这毋庸置疑。
但面对 arxiv,谁值得更多资源呢?显然我以为更本质的 attn 优化,并不是最高优先级。
我不知道该怎么形容这件事。
0x03 腐烂是成熟的标识
终究还是走到了这里。
我相信那个算法工程师,确是多年算法经验,仅仅和客户一线不是一个世界而已。
我也相信,论文里套一堆“细究下来没啥用”的公式,更多地是强化自己的严谨思路和结构化表达。对读者无益,但能训练作者。
要不,咱们也写点?
茴香豆是一个基于 LLM 的群聊知识助手,优势:
设计拒答、响应两阶段 pipeline 应对群聊场景,解答问题同时不会消息泛滥。精髓见技术报告成本低至 1.5G 显存,无需训练适用各行业提供一整套前后端 web、android、算法源码,工业级开源可商用
https://github.com/InternLM/HuixiangDou?github.com/InternLM/HuixiangDou
..
ACL自古以来就是一个拥抱各种ML技术变化以及各个领域玩家的顶级会议。早些年,机器翻译和句法分析是主角(最大唯二track)的时代,speech的/ML的等各色人士都会来耍,而且专门设定track给他们玩,我们自己戏称ACL是 任何人随到随玩,是开放的组织。你可以认为是70%是固定玩家+30%是流水玩家。
所以只要故事合适,当然欢迎。
这不邀请
@CPAPCF
分析一波?我不能接受。
@CPAPCF
ACL大舞台,到你展示了!
你就说ai哪个会不是故事会?cvpr上面transformer随便堆点架构换个场景就能水一篇,自动驾驶吹了几十年不知道发了几千篇屁都没有。到头来模型架构还在依靠nlp里面的transform以及xxattention。aaai之流更别提了
ACL一直就是一个多样的会,十年前有很多画topic model圈圈的paper,也有很多硬核的推parsing kernel的paper,但解决的问题都是很实际的。LLM之后大家都没啥可做的的了,可不就务虚不务实了么。
我来暴论一下,ACL可不可以再细分一下,某些比较solid或者落地价值的文章收在A,某些故事性为主比如prompt based的文章收在B,这样是不是对大家都好
在NLP顶会投稿中,讲好一个故事比你本身得实验和方法更重要。并且在LLM出现以后,各种prompt agent得研究,就变成纯纯测试LLM。60%靠故事,30%靠idea。最后10%才是不重要的方法。比如用LLM玩星际争霸,用LLM模拟一战二战。LLM会有性格吗?已经脱离计算语言了。所以成了纯纯讲故事
光靠SOTA+ablation study不是最受ACL欢迎的风格。起标题非常有技巧,打开每一次会议收录的论文目录,标题吸引程度比个大门户网站高多了。
看的nlp文章不够多,我见过的nlp文章(一般都是顺着ml topic往下找到的),motivation一般听着都觉得不那么make sense。自我感觉是我我编不下去,因为能预期到和一众现有理论有明显冲突。但是人就是编下去了,也没跟你说为嘛work,就是用了些非常high level的点说这个可以xxx。在这种情况下(审稿bar),就直接从ml三大cv三大抄方法即可,魔改都不用。反正reviewer八成没读过
起初刚入门 NLP 时,我觉得一篇长文至少要有 3 个创新点,才能产生足够的 contribution,因此一直在想该怎么整狠活。
后来,读的论文多了,发现相当一部分 xACL / EMNLP 文章,其实核心创新点只有一个,但故事讲得是真好…… 一些我认为三句话就可以说明白的 idea,硬是能写满 8 页,整一堆分析与实验,顺带再来两页附录。
我是比较junior的做nlp的研究者。
我觉得说ACL是故事汇更多是调侃的说法。从一个角度说明了如今的文章,得有一定的包装,有一个完整的story。但换一个角度来说,如果一个文章能把story讲好,有完整的motivation,讲清楚impact,已经称得上是一篇好文章了。
ACL commuinty里面大家的背景各不相同,有搞theory的把NLP当成子任务,有搞psycology的用AI模型做自动化consulting,有研究大模型的,也有研究非常传统的computational linguistics的算法的。不同的背景下要真正的交流,必须要有好的story。换一个说法,如果说ACL是故事汇,那正说明ACL的论文能够被各个领域的人读懂和接受。
1,这似乎是
@CPAPCF
给ACL起的绰号
2,相比于nips等等,ACL确实像故事汇
3,科研本身就是大家一起开会讲故事,实用落地只能是意外的产物
4,就算是故事汇也球球让我多中两篇
说是故事会,但其实中了ACL心里就一路生花了(可毕业)。
ACL之所以被称为故事汇,主要有以下几个原因:
ACL论文的主题广泛,涵盖自然语言处理的各个方面,从文本生成到机器翻译,再到情感分析。 这使得ACL会议就像一个故事汇,来自世界各地的研究人员齐聚一堂,分享他们对自然语言处理的最新研究成果。ACL论文通常具有很强的叙事性。 为了让读者更容易理解,研究人员通常会将他们的研究成果包装成一个故事,讲述他们如何解决某个自然语言处理问题。ACL会议的氛围非常友好和开放。 研究人员可以自由地交流想法,分享经验,并相互学习。 这使得ACL会议成为一个学习和交流的最佳场所。
以下是一些ACL论文的例子,它们可以很好地说明ACL为什么被称为故事汇:
A Neural Conversational Model: https://arxiv.org/abs/1506.05869:这篇论文提出了一种用于对话生成的神经网络模型。 该模型可以生成非常流畅和自然的对话,就像两个人在聊天一样。Attention Is All You Need: https://arxiv.org/abs/1706.03762:这篇论文提出了一种新的注意力机制,可以显著提高机器翻译的准确性。 该机制可以帮助模型更好地理解句子之间的语义关系。BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding: https://arxiv.org/abs/1810.04805:这篇论文提出了一种新的预训练方法,可以显著提高自然语言处理任务的准确性。 该方法可以帮助模型学习到语言的语义和语法知识。
这些论文都具有很强的叙事性,讲述了研究人员如何解决某个自然语言处理问题。 例如,[A Neural Conversational Model]这篇论文讲述了研究人员如何训练一个神经网络模型来生成对话。 该模型首先学习了大量的文本数据,然后可以根据用户的输入生成新的对话。
ACL会议的氛围也非常友好和开放。 研究人员可以自由地交流想法,分享经验,并相互学习。 这使得ACL会议成为一个学习和交流的最佳场所。
没中过。不好评价。插眼,
挺好的,ACL的故事有的讲的比MIS上的工作都好而且角度不同,换个皮然后加点理论直接转到IS
[收藏本文] 【下载本文】
   科技知识 最新文章
《消失的问界里》为什么网传华为选择大面积
特斯拉万人大裁员涉及中国市场,销售部门是
媒体报道「特斯拉一天内失去 2 个高管和 10
去年是「大模型元年」,今年会是「AI应用落
2024 年人工智能方向的就业前景怎么样?
如何评价小米汽车SU7全球首例无故抛锚?
Firefox是如何一步一步衰落的?
熊猫烧香技术含量高吗?高在哪里?
人的大脑会不会出现“过拟合”病?
商务部部长王文涛会见苹果公司 CEO 库克,库
上一篇文章      下一篇文章      查看所有文章
加:2024-04-08 13:35:22  更:2024-04-08 13:46:47 
 
 
股票涨跌实时统计 涨停板选股 分时图选股 跌停板选股 K线图选股 成交量选股 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事
网站联系: qq:121756557 email:121756557@qq.com  天天财汇