亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python實現手勢識別的示例(入門)

瀏覽:64日期:2022-07-30 08:24:06

使用open-cv實現簡單的手勢識別。剛剛接觸python不久,看到了很多有意思的項目,尤其時關于計算機視覺的。網上搜到了一些關于手勢處理的實驗,我在這兒簡單的實現一下(PS:和那些大佬比起來真的是差遠了,畢竟剛接觸不久),主要運用的知識就是opencv,python基本語法,圖像處理基礎知識。

最終實現結果:

python實現手勢識別的示例(入門)

獲取視頻(攝像頭

這部分沒啥說的,就是獲取攝像頭。

cap = cv2.VideoCapture('C:/Users/lenovo/Videos/1.mp4')#讀取文件#cap = cv2.VideoCapture(0)#讀取攝像頭while(True): ret, frame = cap.read() key = cv2.waitKey(50) & 0xFF if key == ord(’q’): breakcap.release()cv2.destroyAllWindows()

膚色檢測

這里使用的是橢圓膚色檢測模型在RGB空間里人臉的膚色受亮度影響相當大,所以膚色點很難從非膚色點中分離出來,也就是說在此空間經過處理后,膚色點是離散的點,中間嵌有很多非膚色,這為膚色區域標定(人臉標定、眼睛等)帶來了難題。如果把RGB轉為YCrCb空間的話,可以忽略Y(亮度)的影響,因為該空間受亮度影響很小,膚色會產生很好的類聚。這樣就把三維的空間將為二維的CrCb,膚色點會形成一定得形狀,如:人臉的話會看到一個人臉的區域,手臂的話會看到一條手臂的形態。

def A(img): YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉換至YCrCb空間 (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值 cr1 = cv2.GaussianBlur(cr, (5,5), 0) _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理 res = cv2.bitwise_and(img,img, mask = skin) return res

輪廓處理

輪廓處理的話主要用到兩個函數,cv2.findContours和cv2.drawContours,這兩個函數的使用使用方法很容易搜到就不說了,這部分主要的問題是提取到的輪廓有很多個,但是我們只需要手的輪廓,所以我們要用sorted函數找到最大的輪廓。

def B(img): #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測 h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓 contour = h[0] contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區域面積進行排序 #contourmax = contour[0][:, 0, :]#保留區域面積最大的輪廓點坐標 bg = np.ones(dst.shape, np.uint8) *255#創建白色幕布 ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓 return ret

全部代碼

''' 從視頻讀取幀保存為圖片'''import cv2import numpy as npcap = cv2.VideoCapture('C:/Users/lenovo/Videos/1.mp4')#讀取文件#cap = cv2.VideoCapture(0)#讀取攝像頭#皮膚檢測def A(img): YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉換至YCrCb空間 (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值 cr1 = cv2.GaussianBlur(cr, (5,5), 0) _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理 res = cv2.bitwise_and(img,img, mask = skin) return resdef B(img): #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測 h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓 contour = h[0] contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區域面積進行排序 #contourmax = contour[0][:, 0, :]#保留區域面積最大的輪廓點坐標 bg = np.ones(dst.shape, np.uint8) *255#創建白色幕布 ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓 return retwhile(True): ret, frame = cap.read() #下面三行可以根據自己的電腦進行調節 src = cv2.resize(frame,(400,350), interpolation=cv2.INTER_CUBIC)#窗口大小 cv2.rectangle(src, (90, 60), (300, 300 ), (0, 255, 0))#框出截取位置 roi = src[60:300 , 90:300] # 獲取手勢框圖 res = A(roi) # 進行膚色檢測 cv2.imshow('0',roi) gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY) dst = cv2.Laplacian(gray, cv2.CV_16S, ksize = 3) Laplacian = cv2.convertScaleAbs(dst) contour = B(Laplacian)#輪廓處理 cv2.imshow('2',contour) key = cv2.waitKey(50) & 0xFF if key == ord(’q’): breakcap.release()cv2.destroyAllWindows()

本人學了python幾天,做出這個東西自己已經很滿足了,當然和那些大佬也是沒法比的,沒有什么東西是速成的,只能一步一個腳印的走。

到此這篇關于python實現手勢識別的示例(入門)的文章就介紹到這了,更多相關python 手勢識別內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品视频一区二区三区 | 亚洲午夜在线播放 | 国产精品亚洲精品 | 免费一级大黄特色大片 | 中文字幕日韩在线一区国内 | 午夜视频久久 | 一级特黄欧美 | 能看的黄色网址 | 日本老妇人乱视频 | 日本黄视频在线观看 | 超色软件 | 久久免费99精品久久久久久 | 中文字幕不卡在线高清 | 大尺度一级毛片波多野结衣 | 欧美刺激午夜性久久久久久久 | 福利视频第一区 | 国产欧美一区二区三区视频在线观看 | 亚洲黄色a| 黄色影片在线观看 | 中文字幕日本一级高清片 | 尤物蜜芽福利国产污在线观看 | 在线免费观看黄色片 | 伊人久久伊人 | 国产福利一区二区三区 | 一区二区三区在线免费观看视频 | 久久婷婷五色综合夜啪 | 色婷五月综激情亚洲综合 | 全免费午夜一级毛片真人 | 国产大片喷水在线在线视频 | 日本精品久久久中文字幕 | 妇女自拍偷自拍亚洲精品 | 色综合99 | 日韩中文字幕一在线 | 综合久久2o19 | 黄色福利视频网站 | 超色软件 | 亚洲国产综合人成综合网站00 | 大陆黄色一级片 | 国产在线播放一区 | a久久99精品久久久久久不 | 中国一级做a爰片久久毛片 中国一级做a爱片免费 |