机器学习CV代码练习(七)之图像描述-预测某张图片的描述_图片生成描述 cv-程序员宅基地

技术标签: 机器学习与深度学习AI  

机器学习CV代码练习(七)之图像描述-预测某张图片的描述

BLEU指标评估产生标题的质量

from nltk.translate.bleu_score import  corpus_bleu
#手工产生(标准)为一个句子
references = [[['there','is','a','cat','and','a','dog']]]#手工产生(标准)——三维列表、图像
candidates = [['there','is','a','cat','and','a','pig']]#电脑产生——二维列表
#一组句子和一个句子之间的好坏与差异,是否相似。weights参数指的是:设置不同的n−gram的权重(1−gram,2−gram,3−gram,4−gram)
#                                       第1个位置数值:用1−gram比较,将单词拆成1个一组,不考虑单词的顺序,将单词打乱,看一样的数量占比;)
#                                       第2个位置数值:用2-gram比较,将单词拆成2个一组,there is、is a、a cat...看一样的数量占比;)
#                                       第3个位置数值:用3−gram比较,将单词拆成3个一组,there is a、is a cat...看一样的数量占比;)
#                                       第4个位置数值:用4−gram比较,将单词拆成4个一组,there is a cat、is a cat and...看一样的数量占比;)
score = corpus_bleu(references,candidates,weights=(0.25,0.25,0.25,0.25))
print(score) #0.8091067115702212。数字越大,两个句子越相似。

#手工产生(标准)为多个句子:原理为-分别于手工产生的句子相比较,取相似度最大的值,可以比较一维列表
references = [[['there','is','a','cat','and','a','dog'],['there','is','a','dog','and','a','cat']]]#手工产生——三维列表、图像
candidates = [['there','is','a','cat','and','a','pig']]#电脑产生——二维列表
#一组句子和一个句子之间的好坏与差异,是否相似。weights参数指的是:设置不同的n−gram的权重(1−gram,2−gram,3−gram,4−gram)
#                                       第1个位置数值:用1−gram比较,将单词拆成1个一组,不考虑单词的顺序,将单词打乱,看一样的数量占比;)
#                                       第2个位置数值:用2-gram比较,将单词拆成2个一组,there is、is a、a cat...看一样的数量占比;)
#                                       第3个位置数值:用3−gram比较,将单词拆成3个一组,there is a、is a cat...看一样的数量占比;)
#                                       第4个位置数值:用4−gram比较,将单词拆成4个一组,there is a cat、is a cat and...看一样的数量占比;)
score = corpus_bleu(references,candidates,weights=(0.25,0.25,0.25,0.25))
print(score) #0.8091067115702212。数字越大,两个句子越相似。

完整代码:预测一张图片的标题+评估test数据集的生成质量

import util
import numpy as np
from pickle import load
from nltk.translate.bleu_score import corpus_bleu
from keras.models import load_model
from keras.preprocessing.sequence import pad_sequences

def word_for_id(integer, tokenizer):
    """
    将一个整数转换为英文单词
    :param integer: 一个代表英文的整数
    :param tokenizer: 一个预先产生的keras.preprocessing.text.Tokenizer
    :return: 输入整数对应的英文单词
    """
    for word, index in tokenizer.word_index.items():
        if index == integer:
            return word
    return None

def generate_caption(model, tokenizer, photo_feature, max_length = 40):
    """
    根据输入的图像特征产生图像的标题
    :param model: 预先训练好的图像标题生成神经网络模型
    :param tokenizer: 一个预先产生的keras.preprocessing.text.Tokenizer
    :param photo_feature:输入的图像特征, 为VGG16网络修改版产生的特征
    :param max_length: 训练数据中最长的图像标题的长度
    :return: 产生的图像的标题
    """
    in_text = 'startseq'
    for i in range(max_length):
        sequence = tokenizer.texts_to_sequences([in_text])
        sequence = pad_sequences(sequence,maxlen= max_length)[0].reshape(1,40)
        # print(photo_feature.shape)
        # print(sequence.shape)
        # print([photo_feature,sequence])
        output = model.predict([photo_feature,sequence])
        # print('output',output)
        integer = np.argmax(output)
        word = word_for_id(integer,tokenizer)
        if word is None:
            break
        in_text = in_text + " " + word
        if word == "endseq":
            break
    return in_text

def generate_caption_run():#调用generate_caption函数
    filename = 'Flickr_8k.testImages.txt'
    test = util.load_ids(filename)
    print('Dataset: %d' % len(test))

    test_captions = util.load_clean_captions('descriptions.txt', test)
    print('Captions: train number=%d' % len(test_captions))

    # photo features
    test_features = util.load_photo_features('features.pkl', test)
    print('Photos: test=%d' % len(test_features))

    filename = "model_0.h5"
    model = load_model(filename)
    print("load model done...")

    # prepare tokenizer
    tokenizer = load(open('tokenizer.pkl', 'rb'))
    #  神经网络需要的nxm,其实是np.shape眼里的mxn
    caption = generate_caption(model,tokenizer,test_features['1258913059_07c613f7ff'].reshape(1,4096),40)
    print('1258913059_07c613f7ff 的预测结果result is:' + str(caption))
    #根据4个BLEU分数来评估所有test数据集
    evaluate_model(model,test_captions,test_features,tokenizer,40)
    return caption

def evaluate_model(model, captions, photo_features, tokenizer, max_length = 40):
    """计算训练好的神经网络产生的标题的质量,根据4个BLEU分数来评估
    Args:
        model: 训练好的产生标题的神经网络
        captions: dict, 测试数据集, key为文件名(不带.jpg后缀), value为图像标题list
        photo_features: dict, key为文件名(不带.jpg后缀), value为图像特征
        tokenizer: 英文单词和整数转换的工具keras.preprocessing.text.Tokenizer
        max_length:训练集中的标题的最大长度
    Returns:
        tuple:
            第一个元素为权重为(1.0, 0, 0, 0)的BLEU分数
            第二个元素为权重为(0.5, 0.5, 0, 0)的BLEU分数
            第三个元素为权重为(0.3, 0.3, 0.3, 0)的BLEU分数
            第四个元素为权重为(0.25, 0.25, 0.25, 0.25)的BLEU分数

from nltk.translate.bleu_score import  corpus_bleu
#手工产生(标准)为一个句子
references = [[['there','is','a','cat','and','a','dog']]]#手工产生(标准)——三维列表、图像
candidates = [['there','is','a','cat','and','a','pig']]#电脑产生——二维列表
#一组句子和一个句子之间的好坏与差异,是否相似。weights参数指的是:设置不同的n−gram的权重(1−gram,2−gram,3−gram,4−gram)
#                                       第1个位置数值:用1−gram比较,将单词拆成1个一组,不考虑单词的顺序,将单词打乱,看一样的数量占比;)
#                                       第2个位置数值:用2-gram比较,将单词拆成2个一组,there is、is a、a cat...看一样的数量占比;)
#                                       第3个位置数值:用3−gram比较,将单词拆成3个一组,there is a、is a cat...看一样的数量占比;)
#                                       第4个位置数值:用4−gram比较,将单词拆成4个一组,there is a cat、is a cat and...看一样的数量占比;)
score = corpus_bleu(references,candidates,weights=(0.25,0.25,0.25,0.25))
print(score) #0.8091067115702212。数字越大,两个句子越相似。

#手工产生(标准)为多个句子:原理为-分别于手工产生的句子相比较,取相似度最大的值,可以比较一维列表
references = [[['there','is','a','cat','and','a','dog'],['there','is','a','dog','and','a','cat']]]#手工产生——三维列表、图像
candidates = [['there','is','a','cat','and','a','pig']]#电脑产生——二维列表
#一组句子和一个句子之间的好坏与差异,是否相似。weights参数指的是:设置不同的n−gram的权重(1−gram,2−gram,3−gram,4−gram)
#                                       第1个位置数值:用1−gram比较,将单词拆成1个一组,不考虑单词的顺序,将单词打乱,看一样的数量占比;)
#                                       第2个位置数值:用2-gram比较,将单词拆成2个一组,there is、is a、a cat...看一样的数量占比;)
#                                       第3个位置数值:用3−gram比较,将单词拆成3个一组,there is a、is a cat...看一样的数量占比;)
#                                       第4个位置数值:用4−gram比较,将单词拆成4个一组,there is a cat、is a cat and...看一样的数量占比;)
score = corpus_bleu(references,candidates,weights=(0.25,0.25,0.25,0.25))
print(score) #0.8091067115702212。数字越大,两个句子越相似。
    """
    actual, predicted = list(),list()#actual:给定的多个标题;predict:计算机预测产生的标题
    #step over the whole set
    for key,caption_list in captions.items():
        # generate description
        yhat = generate_caption(model,tokenizer,photo_features[key].reshape(1,4096),max_length)
        print(key,"的预测结果为:",yhat)
        #store actual and predicted
        references = [d.split() for d in caption_list]
        actual.append(references)#给定的多个标题
        predicted.append(yhat.split())#计算机预测产生的标题
    #calculate BLEU score
    blue1 = corpus_bleu(actual,predicted,weights=(1.0,0,0,0))
    blue2 = corpus_bleu(actual, predicted, weights=(0.5, 0.5, 0, 0))
    blue3 = corpus_bleu(actual, predicted, weights=(0.3, 0.3, 0.3, 0))
    blue4 = corpus_bleu(actual, predicted, weights=(0.25, 0.25, 0.25, 0.25))
    print('BLUE-1: %f' % blue1)
    print('BLUE-2: %f' % blue2)
    print('BLUE-3: %f' % blue3)
    print('BLUE-4: %f' % blue4)
    return blue1,blue2,blue3,blue4



if __name__ == "__main__":
   generate_caption_run()

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_37486501/article/details/118786417

智能推荐

使用nginx解决浏览器跨域问题_nginx不停的xhr-程序员宅基地

文章浏览阅读1k次。通过使用ajax方法跨域请求是浏览器所不允许的,浏览器出于安全考虑是禁止的。警告信息如下:不过jQuery对跨域问题也有解决方案,使用jsonp的方式解决,方法如下:$.ajax({ async:false, url: 'http://www.mysite.com/demo.do', // 跨域URL ty..._nginx不停的xhr

在 Oracle 中配置 extproc 以访问 ST_Geometry-程序员宅基地

文章浏览阅读2k次。关于在 Oracle 中配置 extproc 以访问 ST_Geometry,也就是我们所说的 使用空间SQL 的方法,官方文档链接如下。http://desktop.arcgis.com/zh-cn/arcmap/latest/manage-data/gdbs-in-oracle/configure-oracle-extproc.htm其实简单总结一下,主要就分为以下几个步骤。..._extproc

Linux C++ gbk转为utf-8_linux c++ gbk->utf8-程序员宅基地

文章浏览阅读1.5w次。linux下没有上面的两个函数,需要使用函数 mbstowcs和wcstombsmbstowcs将多字节编码转换为宽字节编码wcstombs将宽字节编码转换为多字节编码这两个函数,转换过程中受到系统编码类型的影响,需要通过设置来设定转换前和转换后的编码类型。通过函数setlocale进行系统编码的设置。linux下输入命名locale -a查看系统支持的编码_linux c++ gbk->utf8

IMP-00009: 导出文件异常结束-程序员宅基地

文章浏览阅读750次。今天准备从生产库向测试库进行数据导入,结果在imp导入的时候遇到“ IMP-00009:导出文件异常结束” 错误,google一下,发现可能有如下原因导致imp的数据太大,没有写buffer和commit两个数据库字符集不同从低版本exp的dmp文件,向高版本imp导出的dmp文件出错传输dmp文件时,文件损坏解决办法:imp时指定..._imp-00009导出文件异常结束

python程序员需要深入掌握的技能_Python用数据说明程序员需要掌握的技能-程序员宅基地

文章浏览阅读143次。当下是一个大数据的时代,各个行业都离不开数据的支持。因此,网络爬虫就应运而生。网络爬虫当下最为火热的是Python,Python开发爬虫相对简单,而且功能库相当完善,力压众多开发语言。本次教程我们爬取前程无忧的招聘信息来分析Python程序员需要掌握那些编程技术。首先在谷歌浏览器打开前程无忧的首页,按F12打开浏览器的开发者工具。浏览器开发者工具是用于捕捉网站的请求信息,通过分析请求信息可以了解请..._初级python程序员能力要求

Spring @Service生成bean名称的规则(当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致)_@service beanname-程序员宅基地

文章浏览阅读7.6k次,点赞2次,收藏6次。@Service标注的bean,类名:ABDemoService查看源码后发现,原来是经过一个特殊处理:当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致public class AnnotationBeanNameGenerator implements BeanNameGenerator { private static final String C..._@service beanname

随便推点

二叉树的各种创建方法_二叉树的建立-程序员宅基地

文章浏览阅读6.9w次,点赞73次,收藏463次。1.前序创建#include<stdio.h>#include<string.h>#include<stdlib.h>#include<malloc.h>#include<iostream>#include<stack>#include<queue>using namespace std;typed_二叉树的建立

解决asp.net导出excel时中文文件名乱码_asp.net utf8 导出中文字符乱码-程序员宅基地

文章浏览阅读7.1k次。在Asp.net上使用Excel导出功能,如果文件名出现中文,便会以乱码视之。 解决方法: fileName = HttpUtility.UrlEncode(fileName, System.Text.Encoding.UTF8);_asp.net utf8 导出中文字符乱码

笔记-编译原理-实验一-词法分析器设计_对pl/0作以下修改扩充。增加单词-程序员宅基地

文章浏览阅读2.1k次,点赞4次,收藏23次。第一次实验 词法分析实验报告设计思想词法分析的主要任务是根据文法的词汇表以及对应约定的编码进行一定的识别,找出文件中所有的合法的单词,并给出一定的信息作为最后的结果,用于后续语法分析程序的使用;本实验针对 PL/0 语言 的文法、词汇表编写一个词法分析程序,对于每个单词根据词汇表输出: (单词种类, 单词的值) 二元对。词汇表:种别编码单词符号助记符0beginb..._对pl/0作以下修改扩充。增加单词

android adb shell 权限,android adb shell权限被拒绝-程序员宅基地

文章浏览阅读773次。我在使用adb.exe时遇到了麻烦.我想使用与bash相同的adb.exe shell提示符,所以我决定更改默认的bash二进制文件(当然二进制文件是交叉编译的,一切都很完美)更改bash二进制文件遵循以下顺序> adb remount> adb push bash / system / bin /> adb shell> cd / system / bin> chm..._adb shell mv 权限

投影仪-相机标定_相机-投影仪标定-程序员宅基地

文章浏览阅读6.8k次,点赞12次,收藏125次。1. 单目相机标定引言相机标定已经研究多年,标定的算法可以分为基于摄影测量的标定和自标定。其中,应用最为广泛的还是张正友标定法。这是一种简单灵活、高鲁棒性、低成本的相机标定算法。仅需要一台相机和一块平面标定板构建相机标定系统,在标定过程中,相机拍摄多个角度下(至少两个角度,推荐10~20个角度)的标定板图像(相机和标定板都可以移动),即可对相机的内外参数进行标定。下面介绍张氏标定法(以下也这么称呼)的原理。原理相机模型和单应矩阵相机标定,就是对相机的内外参数进行计算的过程,从而得到物体到图像的投影_相机-投影仪标定

Wayland架构、渲染、硬件支持-程序员宅基地

文章浏览阅读2.2k次。文章目录Wayland 架构Wayland 渲染Wayland的 硬件支持简 述: 翻译一篇关于和 wayland 有关的技术文章, 其英文标题为Wayland Architecture .Wayland 架构若是想要更好的理解 Wayland 架构及其与 X (X11 or X Window System) 结构;一种很好的方法是将事件从输入设备就开始跟踪, 查看期间所有的屏幕上出现的变化。这就是我们现在对 X 的理解。 内核是从一个输入设备中获取一个事件,并通过 evdev 输入_wayland

推荐文章

热门文章

相关标签