全文总字数:2900字
1. 毕业设计(论文)主要内容:
1.前期知识储备:
通过阅读相关文献,了解自然语言处理、文本蕴含识别、深度学习、BiLSTM、注意力机制、BERT、ESIM(Enhanced Sequential Inference Model)、PYTHON等相关知识。
2.设计功能:
2. 毕业设计(论文)主要任务及要求
1.查阅15篇相关文献(不少于5篇外文文献),并每篇书写200—300字文献摘要(装订成册,带封面);2.认真填写周记,完成至少1500字开题报告(“设计的目的及意义”至少800汉字;“基本内容和技术方案”至少400汉字;进度安排应尽可能详细;);3.完成5000中文字以上的相关英文专业文献翻译,并装订成册(中英文一起,带封面);4.完成方法研究、算法设计与实现;5.按武汉理工大学理工类本科生毕业论文撰写规范撰写毕业论文,完成10000字以上的毕业论文;6.进行论文答辩。
3. 毕业设计(论文)完成任务的计划与安排
1.2020/1/11—2020/1/24:明确选题,查阅相关文献,外文翻译和撰写开题报告;2.2020/1/25—2020/4/30:系统架构,系统设计与开发(或算法研究与设计)、系统测试、分析、比较与完善;3.2020/5/1—2020/5/25:撰写论文初稿;修改论文,定稿并提交论文评审;4.2020/5/26—2020/6/6:准备论文答辩。
4. 主要参考文献
[1] 谭咏梅,刘姝雯,吕学强.基于CNN与双向LSTM的中文文本蕴含识别方法[J].中文信息学报,2018,32(07):11-19.[2] 刘阳. 基于LSTM的英文文本蕴含识别方法研究[D].哈尔滨工业大学,2016.[3] 朱皓. 基于混合神经网络的英文文本蕴含识别研究与实现[D].北京邮电大学,2019.[4] 王宝鑫. 基于深度神经网络的文本蕴含识别及应用研究[D].哈尔滨工业大学,2016.[5] 韩松伯. 基于深度神经网络的英文文本蕴含识别研究[D].北京邮电大学,2018.[6] 刘姝雯. 基于深度神经网络的中文文本蕴含识别研究与实现[D].北京邮电大学,2018.[7] Gu J C, Ling Z H, Ruan Y P, et al. Building Sequential Inference Models for End-to-End Response Selection. arXiv preprint arXiv:1812.00686, 2018.[8] Zhang K., Lv G., Chen E., Wu L., Liu Q., Philip Chen C.L.Context-Aware Dual-Attention Network for Natural Language Inference[C].Advances in Knowledge Discovery and Data Mining. PAKDD 2019. Lecture Notes in Computer Science, 2019:185.[9] C. Lyu, Y. Lu, D. Ji and B. Chen.Deep Learning for Textual Entailment Recognition.Vietri sul Mare:2015 IEEE 27th International Conference on Tools with Artificial Intelligence (ICTAI), 2015: 154.[10] Qian Chen, Xiaodan Zhu, Zhenhua Ling, Si Wei, Hui Jiang, Diana Inkpen.Enhanced LSTM for Natural Language Inference.arXiv preprint arXiv:1609.06038,2016.[11] Radford, A., Narasimhan, K., Salimans, T.,Sutskever, I. Improving language understanding by generative pre-training[J].BibSonomy,2018.[12] Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao.Improving Multi-Task Deep Neural Networks via Knowledge Distillation for Natural Language Understanding.arXiv preprint arXiv:1904.09482, 2019.[13] Sandeep Subramanian, Adam Trischler, Yoshua Bengio, Christopher J Pal.Learning General Purpose Distributed Sentence Representations via Large Scale Multi-task Learning.arXiv preprint arXiv:1804:00079, 2018.[14] Tan L D, Wang C J, Lv Q, et al. SDF-NN: A Deep Neural Network with Semantic Dropping and Fusion for Natural Language Inference [C]. 2017 IEEE International Conference on Tools with Artificial Intelligence (ICTAI). 2017: 6.[15] Kim S, Kang I, Kwak N. Semantic Sentence Matching with Densely-connected Recurrent and Co-attentive Information. arXiv preprint arXiv:1805.11360, 2018.[16] 郭茂盛,张宇,刘挺.文本蕴含关系识别与知识获取研究进展及展望[J].计算机学报,2017,40(4):889-910.
以上是毕业论文任务书,课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。