亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

利用Python如何實現手勢識別

發布時間:2020-10-26 16:23:06 來源:億速云 閱讀:292 作者:Leah 欄目:開發技術

這篇文章運用簡單易懂的例子給大家介紹利用Python如何實現手勢識別,內容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

代碼如下:

import cv2
import numpy as np
import copy
import math
import win32api
import win32con

# 參數
cap_region_x_begin = 0.5 # 起點/總寬度
cap_region_y_end = 0.8
threshold = 60 # 二值化閾值
blurValue = 41 # 高斯模糊參數
bgSubThreshold = 50
learningRate = 0

# 變量
isBgCaptured = 0 # 布爾類型, 背景是否被捕獲
triggerSwitch = False # 如果正確,鍵盤模擬器將工作


def printThreshold(thr):
  print("! Changed threshold to " + str(thr))


def removeBG(frame): #移除背景
  fgmask = bgModel.apply(frame, learningRate=learningRate) #計算前景掩膜
  kernel = np.ones((3, 3), np.uint8)
  fgmask = cv2.erode(fgmask, kernel, iterations=1) #使用特定的結構元素來侵蝕圖像。
  res = cv2.bitwise_and(frame, frame, mask=fgmask) #使用掩膜移除靜態背景
  return res

# 相機/攝像頭
camera = cv2.VideoCapture(0)  #打開電腦自帶攝像頭,如果參數是1會打開外接攝像頭
camera.set(10, 200)  #設置視頻屬性
cv2.namedWindow('trackbar') #設置窗口名字
cv2.resizeWindow("trackbar", 640, 200) #重新設置窗口尺寸
cv2.createTrackbar('threshold', 'trackbar', threshold, 100, printThreshold)
#createTrackbar是Opencv中的API,其可在顯示圖像的窗口中快速創建一個滑動控件,用于手動調節閾值,具有非常直觀的效果。

while camera.isOpened():
  ret, frame = camera.read()
  threshold = cv2.getTrackbarPos('threshold', 'trackbar') #返回滑動條上的位置的值(即實時更新閾值)
  # frame = cv2.cvtColor(frame,cv2.COLOR_RGB2YCrCb)
  frame = cv2.bilateralFilter(frame, 5, 50, 100) # 雙邊濾波
  frame = cv2.flip(frame, 1) # 翻轉 0:沿X軸翻轉(垂直翻轉)  大于0:沿Y軸翻轉(水平翻轉)  小于0:先沿X軸翻轉,再沿Y軸翻轉,等價于旋轉180°
  cv2.rectangle(frame, (int(cap_region_x_begin * frame.shape[1]), 0),(frame.shape[1], int(cap_region_y_end * frame.shape[0])), (0, 0, 255), 2)
  #畫矩形框 frame.shape[0]表示frame的高度  frame.shape[1]表示frame的寬度  注:opencv的像素是BGR順序
  cv2.imshow('original', frame)  #經過雙邊濾波后的初始化窗口

  #主要操作
  if isBgCaptured == 1: # isBgCaptured == 1 表示已經捕獲背景
    img = removeBG(frame) #移除背景
    img = img[0:int(cap_region_y_end * frame.shape[0]),int(cap_region_x_begin * frame.shape[1]):frame.shape[1]] # 剪切右上角矩形框區域
    cv2.imshow('mask', img)

    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) #將移除背景后的圖像轉換為灰度圖
    blur = cv2.GaussianBlur(gray, (blurValue, blurValue), 0) #加高斯模糊
    cv2.imshow('blur', blur)
    ret, thresh = cv2.threshold(blur, threshold, 255, cv2.THRESH_BINARY) #二值化處理
    cv2.imshow('binary', thresh)

    # get the coutours
    thresh2 = copy.deepcopy(thresh)
    _, contours, hierarchy = cv2.findContours(thresh2, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
    #尋找輪廓  注:這里的'_'用作變量名稱,_表示一個變量被指定了名稱,但不打算使用。
    length = len(contours)
    maxArea = -1
    if length > 0:
      for i in range(length): # 找到最大的輪廓(根據面積)
        temp = contours[i]
        area = cv2.contourArea(temp) #計算輪廓區域面積
        if area > maxArea:
          maxArea = area
          ci = i

      res = contours[ci] #得出最大的輪廓區域
      hull = cv2.convexHull(res) #得出點集(組成輪廓的點)的凸包
      drawing = np.zeros(img.shape, np.uint8)
      cv2.drawContours(drawing, [res], 0, (0, 255, 0), 2)  #畫出最大區域輪廓
      cv2.drawContours(drawing, [hull], 0, (0, 0, 255), 3) #畫出凸包輪廓

      moments = cv2.moments(res) # 求最大區域輪廓的各階矩
      center = (int(moments['m10'] / moments['m00']), int(moments['m01'] / moments['m00']))
      cv2.circle(drawing, center, 8, (0,0,255), -1)  #畫出重心

      fingerRes = []  #尋找指尖
      max = 0; count = 0; notice = 0; cnt = 0
      for i in range(len(res)):
        temp = res[i]
        dist = (temp[0][0] -center[0])*(temp[0][0] -center[0]) + (temp[0][1] -center[1])*(temp[0][1] -center[1]) #計算重心到輪廓邊緣的距離
        if dist > max:
          max = dist
          notice = i
        if dist != max:
          count = count + 1
          if count > 40:
            count = 0
            max = 0
            flag = False  #布爾值
            if center[1] < res[notice][0][1]:  #低于手心的點不算
              continue
            for j in range(len(fingerRes)): #離得太近的不算
              if abs(res[notice][0][0]-fingerRes[j][0]) < 20 :
                flag = True
                break
            if flag :
              continue
            fingerRes.append(res[notice][0])
            cv2.circle(drawing, tuple(res[notice][0]), 8 , (255, 0, 0), -1) #畫出指尖
            cv2.line(drawing, center, tuple(res[notice][0]), (255, 0, 0), 2)
            cnt = cnt + 1

      cv2.imshow('output', drawing)
      print(cnt)
      if triggerSwitch is True:
        if cnt >= 3:
          print(cnt)
          # app('System Events').keystroke(' ') # simulate pressing blank space
          win32api.keybd_event(32, 0, 0, 0) # 空格鍵位碼是32
          win32api.keybd_event(32, 0, win32con.KEYEVENTF_KEYUP, 0) # 釋放空格鍵

  # 輸入的鍵盤值
  k = cv2.waitKey(10)
  if k == 27: # 按下ESC退出
    break
  elif k == ord('b'): # 按下'b'會捕獲背景
    bgModel = cv2.createBackgroundSubtractorMOG2(0, bgSubThreshold)
    #Opencv集成了BackgroundSubtractorMOG2用于動態目標檢測,用到的是基于自適應混合高斯背景建模的背景減除法。
    isBgCaptured = 1
    print('!!!Background Captured!!!')
  elif k == ord('r'): # 按下'r'會重置背景
    bgModel = None
    triggerSwitch = False
    isBgCaptured = 0
    print('!!!Reset BackGround!!!')
  elif k == ord('n'):
    triggerSwitch = True
    print('!!!Trigger On!!!')

運行程序操作:運行程序后,按下鍵盤的 b 鍵就可以捕獲背景了

運行結果:

利用Python如何實現手勢識別

注:模擬點擊空格鍵部分并未展示出來,有興趣的可以嘗試一下(按下n鍵就可以模擬鍵盤操作了)

補:該程序受光線影響其實較大,只有在單調背景小效果很好。

-------------------補充----------------------

后期再運行該程序的時候發現有一個錯誤,如下:

利用Python如何實現手勢識別

原因:opencv版本的原因,在opencv 4.0.0版本后,findContours的返回值只有contours, hierarchy兩個參數,不再有三個參數了!

解決辦法:

方法一:

更換opencv的版本 

方法二:

將代碼 _,contours, hierarchy = cv2.findContours(thresh2, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)  改為 contours, hierarchy = cv2.findContours(thresh2, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)  即可!

關于利用Python如何實現手勢識別就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

景泰县| 广昌县| 明水县| 白山市| 桃园市| 贞丰县| 六安市| 绍兴市| 峡江县| 凌云县| 黄浦区| 湖南省| 米林县| 含山县| 万安县| 南投县| 富阳市| 黔西| 延寿县| 南部县| 清新县| 从化市| 东安县| 江门市| 阿拉善左旗| 霍邱县| 台北县| 崇州市| 芦溪县| 酉阳| 鄯善县| 海原县| 固镇县| 邻水| 麻城市| 海盐县| 岗巴县| 桃园市| 伊金霍洛旗| 中方县| 潼南县|