AI聊天伴侣的语料采集大揭秘:OpenCV如何轻松识别聊天图片?

2024-02-24 01:10

本文主要是介绍AI聊天伴侣的语料采集大揭秘:OpenCV如何轻松识别聊天图片?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

最近,负责元宇宙中AI聊天伴侣的语料数据采集,这些数据主要用于AI虚拟角色聊天的训练和测试。虽然语料获取有多种渠道,但由于部分数据涉及隐私,这里就不多说了(感兴趣的朋友可以私聊我)。今天,我将详细讲解如何利用OpenCV轻松识别真实的聊天图片。

在这个过程中,我主要涉及了一系列操作,包括OpenCV如何读取PDF多个分页图片、如何对图片进行水印过滤和异常文字剔除、如何识别聊天文本框和聊天角色、以及如何提取颜色等关键步骤。

通过OpenCV的强大功能,实现对聊天图片的智能识别和处理。这些技术操作不仅能构建了一个高质量的语料库,而且为AI虚拟角色的训练提供了可靠的基础。

导入第三方库:

import os
import json
import base64, re
from tqdm import tqdm
from tencentcloud.common import credential
from tencentcloud.common.profile.client_profile import ClientProfile
from tencentcloud.common.profile.http_profile import HttpProfile
from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
from tencentcloud.ocr.v20181119 import ocr_client, models
import fitz  # PyMuPDF
import numpy as np

腾讯云OCR服务识别图片所有文字

腾讯云OCR使用需要开通服务获取api密钥和id,可以白嫖使用api一千次,如何开通腾讯云使用腾讯云OCR服务,具体可以参考(这里选的是通用印刷识别 高精度版):文字识别 通用印刷体识别(高精度版)-服务端 API 文档-文档中心-腾讯云

图片:

代码:

def make_api_call(base64_str, jsn_fpath, json_data):try:cred = credential.Credential(secret_id, secret_key)httpProfile = HttpProfile()httpProfile.endpoint = "ocr.tencentcloudapi.com"clientProfile = ClientProfile()clientProfile.httpProfile = httpProfileclient = ocr_client.OcrClient(cred, "ap-guangzhou", clientProfile)req = models.GeneralAccurateOCRRequest()params = {'LanguageType': 'zh','IsPdf': True,"PdfPageNumber": 5,'ImageBase64': f'data:image/jpeg;base64,{base64_str}',# 'EnableDetectText': True}req.from_json_string(json.dumps(params))resp = client.GeneralBasicOCR(req)res = json.loads(resp.to_json_string()).get('TextDetections')print("res lenght:",len(res))json_data['TextDetections'].append(res)# breakexcept TencentCloudSDKException as err:print(err)print("len(json_data['TextDetections']):",len(json_data['TextDetections']))os.makedirs(os.path.dirname(os.path.realpath(jsn_fpath)), exist_ok=True)with open(jsn_fpath, 'w', encoding='UTF-8') as o_file:o_file.write(json.dumps(json_data, ensure_ascii=False))if __name__ == '__main__':secret_id = "密钥id"secret_key = "密钥key 通过腾讯云账号获取"jpg_fpath = '图片路径.jpg'with open(jpg_fpath, 'rb') as i_file:base64_str = base64.b64encode(i_file.read()).decode()json_data = {"TextDetections":[]}jsn_fpath = '输出结果json文件.json'make_api_call(base64_str, jsn_fpath, json_data)

输出结果:

包含多个识别结果的列表,DetectedText:识别结果的文本;Polygon:文字所在的坐标,Confidence:字体大小。

{"TextDetections": [[{"DetectedText": "这个", "Confidence": 100, "Polygon": [{"X": 633, "Y": 824}, {"X": 724, "Y": 824}, {"X": 724, "Y": 872}, {"X": 633, "Y": 872}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":2}}", "ItemPolygon": {"X": 633, "Y": 824, "Width": 91, "Height": 48}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "看看里面有几个", "Confidence": 100, "Polygon": [{"X": 403, "Y": 969}, {"X": 724, "Y": 969}, {"X": 724, "Y": 1017}, {"X": 403, "Y": 1017}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":3}}", "ItemPolygon": {"X": 403, "Y": 969, "Width": 321, "Height": 48}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "十个", "Confidence": 100, "Polygon": [{"X": 52, "Y": 1108}, {"X": 140, "Y": 1108}, {"X": 140, "Y": 1159}, {"X": 52, "Y": 1159}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":1}}", "ItemPolygon": {"X": 52, "Y": 1108, "Width": 88, "Height": 51}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "kamole", "Confidence": 89, "Polygon": [{"X": 87, "Y": 1322}, {"X": 162, "Y": 1322}, {"X": 162, "Y": 1341}, {"X": 87, "Y": 1341}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":4}}", "ItemPolygon": {"X": 87, "Y": 1322, "Width": 75, "Height": 19}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "003", "Confidence": 100, "Polygon": [{"X": 41, "Y": 1408}, {"X": 186, "Y": 1408}, {"X": 186, "Y": 1467}, {"X": 41, "Y": 1467}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":4}}", "ItemPolygon": {"X": 41, "Y": 1408, "Width": 145, "Height": 59}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "THBEEL", "Confidence": 100, "Polygon": [{"X": 41, "Y": 1448}, {"X": 97, "Y": 1448}, {"X": 97, "Y": 1480}, {"X": 41, "Y": 1480}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":4}}", "ItemPolygon": {"X": 41, "Y": 1448, "Width": 56, "Height": 32}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "2", "Confidence": 100, "Polygon": [{"X": 95, "Y": 1585}, {"X": 119, "Y": 1585}, {"X": 119, "Y": 1596}, {"X": 95, "Y": 1596}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":5}}", "ItemPolygon": {"X": 95, "Y": 1585, "Width": 24, "Height": 11}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "可以", "Confidence": 100, "Polygon": [{"X": 635, "Y": 1692}, {"X": 727, "Y": 1692}, {"X": 727, "Y": 1740}, {"X": 635, "Y": 1740}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":7}}", "ItemPolygon": {"X": 635, "Y": 1692, "Width": 92, "Height": 48}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "那就这个了", "Confidence": 100, "Polygon": [{"X": 49, "Y": 1837}, {"X": 277, "Y": 1837}, {"X": 277, "Y": 1885}, {"X": 49, "Y": 1885}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":6}}", "ItemPolygon": {"X": 49, "Y": 1837, "Width": 228, "Height": 48}, "Words": [], "WordCoordPoint": []}, {"DetectedText": "好", "Confidence": 100, "Polygon": [{"X": 678, "Y": 1978}, {"X": 729, "Y": 1978}, {"X": 729, "Y": 2027}, {"X": 678, "Y": 2027}], "AdvancedInfo": "{\"Parag\":{\"ParagNo\":8}}", "ItemPolygon": {"X": 678, "Y": 1978, "Width": 51, "Height": 49}, "Words": [], "WordCoordPoint": []}]]}

Opencv识别图片的文本轮廓

首先对图片进行二值化突出目标物体的轮廓,然后进行中值滤波除图像中的噪声,最后使用cannyPic进行边缘检测,最终返回所有轮廓坐标。(后续基于这些轮廓坐标可以确认文本所属的背景颜色,这样就能确定文本所属的角色)

def get_contours(image):srcPic = image  # 将图像转换为灰度gray = cv2.cvtColor(srcPic, cv2.COLOR_BGR2GRAY)# 自适应阈值二值化binPic = cv2.adaptiveThreshold(gray, 255, cv2.ADAPTIVE_THRESH_MEAN_C, cv2.THRESH_BINARY, 11, 2)# 中值滤波median = cv2.medianBlur(binPic, 5)# 边缘检测cannyPic = cv2.Canny(median, 10, 200)# 找出轮廓contours, hierarchy = cv2.findContours(cannyPic, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)# 根据轮廓面积排序并筛选min_contour_area = 500contours = sorted(contours, key=cv2.contourArea, reverse=True)contours = [cnt for cnt in contours if cv2.contourArea(cnt) > min_contour_area]# 画出矩形框rectangles = []for i in range(min(26, len(contours))):x, y, w, h = cv2.boundingRect(contours[i])cv2.rectangle(srcPic, (x, y), (x + w, y + h), (0, 255, 0), 2)rectangles.append(((x, y), (x + w, y + h)))# 显示处理后的图像cv2.namedWindow(str("C"), cv2.WINDOW_NORMAL)cv2.resizeWindow(str("C"), 800, 1000) cv2.imshow('C', srcPic) cv2.waitKey(0)cv2.destroyAllWindows()return rectangles #返回轮廓坐标列表if __name__ == "__main__":img = cv2.imread('77.jpg') #20 31 64img = get_contours(img)

    输出结果:

初步识别到个别轮廓,到还没达到最好的效果,预想的目标是识别出所有聊天的文本框。

改进方案:

由于对图片进行二值化后,图片变成黑白像素,而聊天文本框和文字都是黑色像素的轮廓,所以将文字转换为成白色有利于减少的噪音。

代码:(get_contours方法里对图片二值化之前增加下面代码)

    # Apply thresholding to replace black pixels with white pixelshsv = cv2.cvtColor(srcPic, cv2.COLOR_BGR2HSV)# Define the lower and upper bounds for black color in HSVlower_black = np.array([0, 0, 0], dtype=np.uint8)upper_black = np.array([180, 255, 86], dtype=np.uint8)# Create a binary mask for black pixelsblack_mask = cv2.inRange(hsv, lower_black, upper_black)# Replace black pixels with white pixelssrcPic[black_mask > 0] = [255, 255, 255]

文字没转换白色像素之前的效果:

文字转换成白色后二值化结果:

虽然通过把文字转换成白色像素,减少了噪音,但还远远不够识别出所有文本框的效果。

通过morphologyEx :将图像中的物体轮廓膨胀,增加物体的面积。膨胀操作通常用于连接两个相邻的物体或填充物体的空洞

    kernel = np.ones((6, 6), np.uint8)binPic = cv2.morphologyEx(binPic, cv2.MORPH_OPEN, kernel, iterations=3)

效果:

完整识别出所有文本框轮廓

基于上述操作基本实现一个简单的聊天文本框识别,后续通过识别到的文字坐标确定它所属的文本框所在的背景颜色,就能确定文本所属的角色。

下面进一步讲解如何识别包含水印和异常文字的图片中的文本框所在位置。

原始图片:

识别结果:

通过之前的代码识别,识别结果水印基本已经剔除掉,但文本框包含了头像部分,头像并不是我们想要的部分,会影响后续坐标定位背景颜色。

通过显示中值滤波的图片发现,很明显白色头像和文本框被识别成一体了,median如下图:

解决方法:

通过在图片右侧画一条虚线,然后通过横线腐蚀来分离文本和头像(这个方法是我在处理文本框和边界融为一体后不能被识别成功时候想到的)

代码:

   #get_contours方法里添加下面代码border_size = 12pattern = np.array([0, 255] * (border_size // 2), dtype=np.uint8)# Apply the dashed line pattern to the right side of the imagebinPic[:, -border_size:] = pattern[:binPic.shape[0]]binPic = dilate_line(binPic, 'horizontal', 120, 900) #vertical
def dilate_line(binary, type='vertical', x_scale=10, y_scale=5):'''获取竖线/横线腐蚀后的二值图'''rows_z, cols_z = binary.shapeif type == 'horizontal':size = (cols_z // x_scale, 1)else:size = (1, rows_z // y_scale)kernel = cv2.getStructuringElement(cv2.MORPH_RECT, size) eroded = cv2.erode(binary, kernel, iterations=1)  # 腐蚀dilated = cv2.dilate(eroded, kernel, iterations=1)  # 膨胀 return dilated

改进后的结果:

完整代码:

import numpy as np
import cv2def dilate_line(binary, type='vertical', x_scale=10, y_scale=5):'''获取竖线/横线腐蚀后的二值图'''rows_z, cols_z = binary.shapeif type == 'horizontal':size = (cols_z // x_scale, 1)else:size = (1, rows_z // y_scale)kernel = cv2.getStructuringElement(cv2.MORPH_RECT, size) eroded = cv2.erode(binary, kernel, iterations=1)  # 腐蚀dilated = cv2.dilate(eroded, kernel, iterations=1)  # 膨胀 return dilateddef get_contours(image):srcPic = image  # 读取图像hsv = cv2.cvtColor(srcPic, cv2.COLOR_BGR2HSV)  # 将图像转换为HSV颜色空间# 定义在HSV颜色空间中表示黑色的范围lower_black = np.array([0, 0, 0], dtype=np.uint8)upper_black = np.array([180, 255, 86], dtype=np.uint8)# 创建二值掩模,将黑色替换为白色black_mask = cv2.inRange(hsv, lower_black, upper_black)srcPic[black_mask > 0] = [255, 255, 255]# 将图像转换为灰度gray = cv2.cvtColor(srcPic, cv2.COLOR_BGR2GRAY)# 自适应阈值二值化binPic = cv2.adaptiveThreshold(gray, 255, cv2.ADAPTIVE_THRESH_MEAN_C, cv2.THRESH_BINARY, 11, 2)# 开运算,去除噪音kernel = np.ones((6, 6), np.uint8)binPic = cv2.morphologyEx(binPic, cv2.MORPH_OPEN, kernel, iterations=3)# 应用虚线模式到图像右侧border_size = 12pattern = np.array([0, 255] * (border_size // 2), dtype=np.uint8)binPic[:, -border_size:] = pattern[:binPic.shape[0]]# 水平膨胀操作binPic = dilate_line(binPic, 'horizontal', 120, 900)# 中值滤波median = cv2.medianBlur(binPic, 5)# 边缘检测cannyPic = cv2.Canny(median, 10, 200)# 找出轮廓contours, hierarchy = cv2.findContours(cannyPic, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)# 根据轮廓面积排序并筛选min_contour_area = 500contours = sorted(contours, key=cv2.contourArea, reverse=True)contours = [cnt for cnt in contours if cv2.contourArea(cnt) > min_contour_area]# 画出矩形框rectangles = []for i in range(min(26, len(contours))):x, y, w, h = cv2.boundingRect(contours[i])cv2.rectangle(srcPic, (x, y), (x + w, y + h), (0, 255, 0), 2)rectangles.append(((x, y), (x + w, y + h)))# 显示处理后的图像cv2.namedWindow(str("C"), cv2.WINDOW_NORMAL)cv2.resizeWindow(str("C"), 800, 1000) cv2.imshow('C', srcPic) cv2.waitKey(0)cv2.destroyAllWindows()print(rectangles)return rectanglesif __name__ == "__main__":img = cv2.imread('123.jpg') #20 31 64img = get_contours(img)# img_separate = get_color(img) #设置get_color 返回roi后,判断轮廓所在的颜色区域

代码中通过对面积进行排序后,使用for i in range(min(26, len(contours))) 只返回了前26最大面积的轮廓

输出结果(前26个轮廓坐标,这里没有26轮廓这么多):

[((210, 383), (901, 468)), ((550, 495), (939, 609)), ((563, 640), (945, 754)), ((26, 778), (389, 904)), ((362, 274), (749, 362)), ((174, 135), (411, 249)), ((398, 942), (715, 1011)), ((968, 495), (1080, 607)), ((968, 640), (1080, 752)), ((88, 135), (144, 206)), ((32, 139), (64, 205)), ((689, 31), (708, 86)), ((978, 66), (1008, 91)), ((148, 143), (169, 178)), ((514, 131), (539, 158))]

由于之前使用OCR识别文字已经返回了文字所在的坐标,通过这个坐标我们可以确定文本所在的轮廓。

下面定义几个主要方法,包含识别文本是否在文本框里,识别文本的背景颜色、计算坐标等。

judge_side 用于根据图像中边界框的位置和颜色信息来判断文本所在的位置是在左侧、右侧还是无法判断。以下是对代码的逐步解释:

def judge_side(img, bbox, rectangles, detectedtext):"""Judge the left/right side based on the occurrence of white/green pixels."""x_min, x_max, y_min, y_max = get_bbox_bounds(bbox)  # 获取边界框的最小和最大坐标值side = None# 遍历矩形区域列表for rect in rectangles:# 判断边界框是否在矩形区域内(考虑了一定的容错范围)if (rect[0][0] - 50 <= x_min <= rect[1][0] + 50 andrect[0][1] - 50 <= y_min <= rect[1][1] + 50 andrect[0][0] - 50 <= x_max <= rect[1][0] + 50 andrect[0][1] - 50 <= y_max <= rect[1][1] + 50):side = rect  # 如果在矩形区域内,则将该矩形区域赋值给 side# 如果 side 存在或者检测到的文本长度大于等于3if side or (detectedtext and len(detectedtext) >= 3):# 调用 get_color 方法,获取图像区域的颜色side = get_color(img[x_min - 60:x_max + 60, y_min - 60:y_max + 60])return side  # 返回判断结果def get_bbox_bounds(bbox):x_min = min([x['X'] for x in bbox])x_max = max([x['X'] for x in bbox])y_min = min([x['Y'] for x in bbox])y_max = max([x['Y'] for x in bbox])return x_min, x_max, y_min, y_max

get_color 该函数接受一个图像 img 作为输入,然后根据颜色的平均值(色相、饱和度、亮度)来判断图像的颜色,并返回相应的结果。

def get_color(img):if img.shape[0] == 0 or img.shape[1] == 0:return "UNK"  # 如果图像高度或宽度为0,返回未知颜色# 颜色提取hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)  # 将图像颜色空间转换为HSV,便于颜色分离average_hue = np.median(hsv[:,:,0])  # 色相的中位数average_saturation = np.median(hsv[:,:,1])  # 饱和度的中位数average_value = np.median(hsv[:,:,2])   # 亮度的中位数print('RBG--hsv:', average_hue, average_saturation, average_value)# 定义颜色范围green_min = [35, 43, 46]green_max = [77, 255, 255]back_min = [0, 0, 40]back_max = [180, 43, 220]white_min = [0, 0, 239]white_max = [180, 30, 255]# 根据颜色范围判断颜色if (average_hue >= green_min[0] and average_hue <= green_max[0] andaverage_saturation >= green_min[1] and average_saturation <= green_max[1] andaverage_value >= green_min[2] and average_value <= green_max[2]):print("color is green")return 'RIGHT'elif (average_hue >= white_min[0] and average_hue <= white_max[0] andaverage_saturation >= white_min[1] and average_saturation <= white_max[1] andaverage_value >= white_min[2] and average_value <= white_max[2]):print("color is white")return "LEFT"elif (average_hue >= back_min[0] and average_hue <= back_max[0] andaverage_saturation >= back_min[1] and average_saturation <= back_max[1] andaverage_value >= back_min[2] and average_value <= back_max[2]):print("color is gray")return "LEFT"else:print("not white and green", average_hue, average_saturation, average_value)return "UNK"  # 如果不在上述颜色范围内,返回未知颜色

这个函数通过计算颜色的中位数来判断图像的整体颜色,然后根据预定义的颜色范围,判断图像是绿色、白色、灰色还是未知颜色,并返回相应的标签。函数中的颜色范围是通过调试和实验得到的,可以根据实际情况进行调整。

主代码入口:

with open(jsn_fpath, 'r', encoding='UTF-8') as i_file:jsn_data = json.load(i_file)
with open(pdf_path, 'rb') as i_file:pix = i_file.read()
conv_list = []
regex = re.compile(r'[0-9]+:[0-9]+$|中国移动|输入聊天') 
print(len(jsn_data['TextDetections']), '-------------------')
for hits in jsn_data['TextDetections']:pix = next(gen)pix = np.frombuffer(pix, np.uint8)img = cv2.imdecode(pix, cv2.IMREAD_COLOR)rectangles  = get_contours(img)for hit in hits:y_list = [y for y in hit.get('Polygon')]  #获取句子y轴坐标text = hit["DetectedText"]#根据y轴坐标,使用极差计算句子高度:如果句子水平方向,高度在一个字的高度左右,如果是水印则会异常高ptp = np.ptp(np.array([i.get('Y') for i in y_list]))  #过滤异常高度、异常字体大小和时间文本if hit['Confidence'] <= CONF_THRES or ptp > ptp_max or ptp <= ptp_min or re.search(regex, text):  print("pass -----")continueprint("text:",text)side = judge_side(img, hit['Polygon'], rectangles,hit["DetectedText"])if side == 'UNK' or not side:# print("side:", hit["DetectedText"])continueelse:conv_list.append(f'{side}: {text}')

这段代码通过循环遍历腾讯云OCR返回的每一条文本信息。在处理每一条文本信息时,会进行一系列的过滤操作,包括置信度、文本框高度、异常文本等。最终,将符合条件的文本按照其位置('左'、'右')以及文本内容添加到 conv_list 列表中。这个列表最终用于存储经过筛选后的文本信息,供后续处理和分析。

上述代码完成了基本的聊天图片的文本识别步骤,但要实现自动化识别大量聊天图片还需进一步完善。比如这里使用了jpg图片进行识别,如果使用多个分页的pdf又如何识别呢。

下面将完整自动化识别大量聊天图片的脚本写好了,欢迎感兴趣的小伙伴收看我的专栏博客:

完整代码:

https://blog.csdn.net/qq_20163065/article/details/135052800?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22135052800%22%2C%22source%22%3A%22qq_20163065%22%7D

对于更多ai语料,欢迎感兴趣的朋友私聊我。

这篇关于AI聊天伴侣的语料采集大揭秘:OpenCV如何轻松识别聊天图片?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/740494

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

揭秘世界上那些同时横跨两大洲的国家

我们在《世界人口过亿的一级行政区分布》盘点全球是那些人口过亿的一级行政区。 现在我们介绍五个横跨两州的国家,并整理七大洲和这些国家的KML矢量数据分析分享给大家,如果你需要这些数据,请在文末查看领取方式。 世界上横跨两大洲的国家 地球被分为七个大洲分别是亚洲、欧洲、北美洲、南美洲、非洲、大洋洲和南极洲。 七大洲示意图 其中,南极洲是无人居住的大陆,而其他六个大洲则孕育了众多国家和

三国地理揭秘:为何北伐之路如此艰难,为何诸葛亮无法攻克陇右小城?

俗话说:天时不如地利,不是随便说说,诸葛亮六出祁山,连关中陇右的几座小城都攻不下来,行军山高路险,无法携带和建造攻城器械,是最难的,所以在汉中,无论从哪一方进攻,防守方都是一夫当关,万夫莫开;再加上千里运粮,根本不需要打,司马懿只需要坚守城池拼消耗就能不战而屈人之兵。 另一边,洛阳的虎牢关,一旦突破,洛阳就无险可守,这样的进军路线,才是顺势而为的用兵之道。 读历史的时候我们常常看到某一方势