亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python機器學習中logistic回歸的示例分析

發布時間:2021-08-03 11:13:17 來源:億速云 閱讀:113 作者:小新 欄目:開發技術

這篇文章主要介紹了Python機器學習中logistic回歸的示例分析,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

Logistic回歸的主要目的:尋找一個非線性函數sigmod最佳的擬合參數

擬合、插值和逼近是數值分析的三大工具

回歸:對一直公式的位置參數進行估計

擬合:把平面上的一些系列點,用一條光滑曲線連接起來

logistic主要思想:根據現有數據對分類邊界線建立回歸公式、以此進行分類

sigmoid函數:在神經網絡中它是所謂的激勵函數。當輸入大于0時,輸出趨向于1,輸入小于0時,輸出趨向0,輸入為0時,輸出為0.5

Python機器學習中logistic回歸的示例分析

梯度上升:要找到某個函數的最大值,最好的方法是沿著該函數的梯度方向探尋

收斂:隨著迭代的運行算法的結果和真實結果的誤差越來越小,且趨向于一個固定值。

爬山算法:是完完全全的貪心算法,每次鼠目寸光的選擇一個當前最優解,英雌只能搜尋到局部最優值

模擬退火算法:也是一種貪心算法但它的sou索過程引入了隨機因素,模擬退火算法以一定的概念來接受一個比當前解要差的解,因此有可能會跳出這個局部最優解,達到全局最優解。

處理數據中的缺失值:

使用可用特征的均值來填補缺失值

使用特殊值來填補缺失值,如-1

忽略有缺失值的樣本

使用相似樣本的均值添補缺失值

使用其它機器學習算法預測缺失值

標簽與特征不同,很難確定采用某個合適的值來替換。

#coding:utf-8
 
from numpy import *
import math
 
def loadDataSet():
  dataMat = []; labelMat = []
  fr = open('testSet.txt')
  for line in fr.readlines():
    lineArr = line.strip().split()
    dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])
    labelMat.append(int(lineArr[2]))
  return dataMat,labelMat
 
def sigmoid(inX):
  return longfloat(1.0/(1+exp(-inX))) #sigmoid函數公式
 
def gradAscent(dataMatIn, classLabels):
  #dataMatIn 一個2維的數組;classLabels 類別標簽
  dataMatrix = mat(dataMatIn)       #轉換為矩陣
  labelMat = mat(classLabels).transpose() #得到矩陣的轉置矩陣
  m,n = shape(dataMatrix)  #讀取矩陣的長度,二維矩陣,返回兩個值
  alpha = 0.001     #向目標移動的步長
  maxCycles = 500    #迭代次數 
  weights = ones((n,1))  #ones()函數用以創建指定形狀和類型的數組,默認情況下返回的類型是float64。但是,如果使用ones()函數時指定了數據類型,那么返回的就是該類型
  for k in range(maxCycles):       
    h = sigmoid(dataMatrix*weights)   #matrix mult
    error = (labelMat - h)       #vector subtraction
    weights = weights + alpha * dataMatrix.transpose()* error #matrix mult
  return weights
 
def plotBestFit(weights):
  import matplotlib as mpl
  mpl.use('Agg')         #為了防止出現:RuntimeError: could not open display報錯
  import matplotlib.pyplot as plt
  dataMat,labelMat=loadDataSet()
  dataArr = array(dataMat)
  n = shape(dataArr)[0] 
  xcord1 = []; ycord1 = []
  xcord2 = []; ycord2 = []
  for i in range(n):
    if int(labelMat[i])== 1:
      xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])
    else:
      xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2])
  fig = plt.figure() #figure: 控制dpi、邊界顏色、圖形大小、和子區( subplot)設置
  ax = fig.add_subplot(111) # 參數111的意思是:將畫布分割成1行1列,圖像畫在從左到右從上到下的第1塊,
  ax.scatter(xcord1, ycord1, s=30, c='red', marker='s')
  ax.scatter(xcord2, ycord2, s=30, c='green')
  x = arange(-3.0, 3.0, 0.1)
  y = (-weights[0]-weights[1]*x)/weights[2]
  ax.plot(x, y)
  plt.xlabel('X1'); plt.ylabel('X2');
  plt.savefig('plotBestFit.png')  #因為我是騰訊云服務器,沒有圖形界面,所以我保存為圖片。
 
#隨機梯度上升算法
def stocGradAscent0(dataMatrix, classLabels):
  m,n = shape(dataMatrix)
  alpha = 0.01
  weights = ones(n)  #initialize to all ones
  for i in range(m):
    h = sigmoid(sum(dataMatrix[i]*weights))
    error = classLabels[i] - h
    weights = weights + alpha * error * dataMatrix[i] #回歸系數的更新操作
  return weights
 
#改進的隨機梯度上升算法
def stocGradAscent1(dataMatrix, classLabels, numIter=150):  #較之前的增加了一個迭代次數作為第三個參數,默認值150
  m,n = shape(dataMatrix)
  weights = ones(n)  
  for j in range(numIter):
    dataIndex = range(m)
    for i in range(m):
      alpha = 4/(1.0+j+i)+0.0001  
      randIndex = int(random.uniform(0,len(dataIndex)))  #樣本隨機選擇
      h = sigmoid(sum(dataMatrix[randIndex]*weights))
      error = classLabels[randIndex] - h
      weights = weights + alpha * error * dataMatrix[randIndex] #回歸系數的更新操作
      del(dataIndex[randIndex])
  return weights
 
#以回歸系數和特征向量作為輸入計算對應的sigmoid值
def classifyVector(inX, weights):
  prob = sigmoid(sum(inX*weights))
  if prob > 0.5: return 1.0        #如果sigmoid值大于0.5函數返回1,否則返回0
  else: return 0.0
 
#打開測試集和訓練集,并對數據進行格式化處理的函數
def colicTest():
  frTrain = open('horseColicTraining.txt'); frTest = open('horseColicTest.txt')
  trainingSet = []; trainingLabels = []
  for line in frTrain.readlines():
    currLine = line.strip().split('\t')
    lineArr =[]
    for i in range(21):
      lineArr.append(float(currLine[i]))
    trainingSet.append(lineArr)
    trainingLabels.append(float(currLine[21]))
  trainWeights = stocGradAscent1(array(trainingSet), trainingLabels, 1000) #計算回歸系數向量
  errorCount = 0; numTestVec = 0.0
  for line in frTest.readlines():
    numTestVec += 1.0
    currLine = line.strip().split('\t')
    lineArr =[]
    for i in range(21):
      lineArr.append(float(currLine[i]))
    if int(classifyVector(array(lineArr), trainWeights))!= int(currLine[21]):
      errorCount += 1
  errorRate = (float(errorCount)/numTestVec)
  print "the error rate of this test is: %f" % errorRate
  return errorRate
#調用函數colicTest()10次,并求結果的平均值
def multiTest():
  numTests = 10; errorSum=0.0
  for k in range(numTests):
    errorSum += colicTest()
  print "after %d iterations the average error rate is: %f" % (numTests, errorSum/float(numTests))

Python機器學習中logistic回歸的示例分析

Python機器學習中logistic回歸的示例分析

感謝你能夠認真閱讀完這篇文章,希望小編分享的“Python機器學習中logistic回歸的示例分析”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

抚远县| 铁岭市| 清水河县| 昆山市| 青州市| 罗田县| 思茅市| 万山特区| 康定县| 布尔津县| 双柏县| 柳江县| 淮阳县| 中牟县| 滦南县| 古蔺县| 龙泉市| 牟定县| 长岛县| 化隆| 伊吾县| 锦屏县| 甘南县| 麻栗坡县| 偃师市| 遵义县| 霍城县| 洪洞县| 济宁市| 富平县| 资讯| 收藏| 同心县| 旬邑县| 共和县| 托克逊县| 桃园县| 察隅县| 溆浦县| 富锦市| 加查县|