实验目的
之前利用llm构造触发器的方法效果还不错,命中率能达到1/5左右。现在有一个新的方法,具体见前置准备章节。最终的目的是利用这种新的方法提高实体识别的命中率。而我现在要做的是构造出数据集。
前置准备
论文精读
本次主要参考:AlignRE: An Encoding and Semantic Alignment Approach for Zero-Shot Relation Extraction,
...About 11 min
之前利用llm构造触发器的方法效果还不错,命中率能达到1/5左右。现在有一个新的方法,具体见前置准备章节。最终的目的是利用这种新的方法提高实体识别的命中率。而我现在要做的是构造出数据集。
本次主要参考:AlignRE: An Encoding and Semantic Alignment Approach for Zero-Shot Relation Extraction,
这篇帖子用来记录大三上学期的智能系统选修课大作业,仍在完善中。
The purpose of this task is to construct a set of triggers for a relational extraction model. Simply put, it tells the model which triggers correspond to which relationships.
用变分自编码器生成MNIST手写数字,实现以下要求:
推荐使用高斯分布随机初始化模型参数,可以避免一部分模式坍塌问题。
"在框架如此完备的情况下,使用模型是俗手;设计模型是本手;而构造训练数据集,my friend,这才是妙手。"
最后要做成一个知识图谱类的RAG模型,做知识库训练的数据主要是论文。
这是一个对AMP(抗菌肽)做二元分类和回归的sota模型,基于pytorch。