如上图所示,展示了如何用BERT来做信息抽取任务的结构图。注意一下几点即可: 1.将Question和Paragraph分别作为BERT的text1和text2输入。 2.start/end span在Paragraph对应的输出位置表示。 通常输出会通过2个dense网络 ...
catalogue . 前言 开始写这篇文章的时候是晚上 点,突然想到几点新的理解,赶紧记下来。我们用深度学习 例如tensorflow 的时候,一定要着重训练自己的建模和抽象能力,即把一个复杂的业务问题抽象为一个数学模型问题。从本质上说,阅读理解做完形填空和人机对话AI是一样的,所不同的地方在于,前者的输入一段长对话,且是带有上下文的长对话,而输出可能是一段短语,这要求神经网络需要训练出一个 长 ...
2017-02-24 17:14 0 3989 推荐指数:
如上图所示,展示了如何用BERT来做信息抽取任务的结构图。注意一下几点即可: 1.将Question和Paragraph分别作为BERT的text1和text2输入。 2.start/end span在Paragraph对应的输出位置表示。 通常输出会通过2个dense网络 ...
报名了一个蝴蝶检测比赛,一共给了700多张图,包含94种蝴蝶类别,要求检测出图片中的蝴蝶并正确分类。 1.拿到数据集后,第一部就是将700多张图分成了 483张训练样本和238张测试样本(由于数据集 ...
之前写的一篇SSD论文学习笔记因为没保存丢掉了,然后不想重新写,直接进行下一步吧。SSD延续了yolo系列的思路,引入了Faster-RCNN anchor的概念。不同特征层采样,多anchor. SSD源码阅读 https://github.com/balancap/SSD-Tensorflow ...
学习语义分割反卷积网络DeconvNet 一点想法:反卷积网络就是基于FCN改进了上采样层,用到了反池化和反卷积操作,参数量2亿多,非常大,segnet把两个全连接层去掉,效果也能很好,显著减少了参 ...
root/tensorflow/core |--common_runtime # 公共运行库 |--distributed_runtime # 分布式执行模块,含有grpc session, grpc worker, grpc master等 |--framework # 基础功能模块 ...
webrtc是一个比较成熟的实时音视频处理开源项目,一上来老大就扔给我一本webrtc native实践,虽然狠下心“翻”完了一遍,但是还是云里雾里的,在经过几个月的摸索之后,我大概知道原因了,归根到底,是基础不在一个层次,理解不了的,所以我决定,尝试写一个接近我这种零基础入门实时音视频的记录系列 ...
本文是对github上fork的xing_NLP中的用N-gram语言模型做完型填空这样一个NLP项目环境搭建的一个说明,本来写在README.md中。第一次用github中的wiki,想想尝试一下也不错,然而格式非常的混乱,自己都不满意,所以先在博客园记录一下,等github博客搭建 ...
一说到言语,有的小伙伴可能说习惯用语感,怎么说呢,有好的语感在一定程度上是能帮助做题的,可是要想多对一点少错一点还是要去掌握方法技巧的,用语感做题还会导致可能今天语感好做对了,那明天语感不好的时候就不知道该怎么做了 废话不多说,直接进入正题 言语理解总体来说分为逻辑填空和片段阅读。各个部分都有 ...