论文解读——BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models
介绍了BLIP-2这一多模态的模型; 其利用Q-Former来抽取图像特征,并结合BERT,对其图像特征到文本空间。
介绍了BLIP-2这一多模态的模型; 其利用Q-Former来抽取图像特征,并结合BERT,对其图像特征到文本空间。
介绍了Google论文: Unsupervised Data Augmentation for Consistency Traning (UDA) 的训练方式
图解BERT与训练模型的使用,基于句子情感分类任务。
基于 Python gensim模块进行word2vec的训练相对容易,在此基础上根据选择相应的预训练的word2vec 向量,基于自有数据的再训练更符合实际应用。
lucene7设置检索词权重,移除了setBoost。使用BoostQuery
使用Neo4j导入思知开源的最大中文知识图谱。