亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用C++?OpenCV實現圖像拼接

發布時間:2022-08-17 17:42:31 來源:億速云 閱讀:275 作者:iii 欄目:開發技術

這篇文章主要介紹了怎么使用C++ OpenCV實現圖像拼接的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇怎么使用C++ OpenCV實現圖像拼接文章都會有所收獲,下面我們一起來看看吧。

    一、圖像拼接相關原理 

    圖像特征采集

    一幅圖中總存在著一些獨特的像素點,這些點我們可以認為就是這幅圖的特征,即為特征點

    獲取一幅圖中存在的一些獨特的像素點,需要解決兩個問題:

    • 解決尺度不變性問題,不同大小的圖片獲取到的特征是一樣的

    • 提取到的特征點要穩定,能被精確定位 

    特征提取算法

    名稱支持尺寸不變性速度
    SURF支持
    SIFT支持比SURF慢
    ORB不支持SURF算法快10倍
    FAST沒有尺度不變性比ORB快

    透視變換

    怎么使用C++?OpenCV實現圖像拼接

    透視變換是按照物體成像投影規律進行變換,即將物體重新投影到新的成像平面

    透視變換常用于機器人視覺導航研究中,由于相機視場與地面存在傾斜角使得物體成像產生畸變,通常通過透視變換實現對物體圖像的校正

    透視矩陣

    [u,v,w] 表示當前平面坐標的x,y,z,如果是平面,那么z=1

    [x',y',z'] 表示目標平面坐標的x,y,z,如果是平面,那么z=1

    怎么使用C++?OpenCV實現圖像拼接

    怎么使用C++?OpenCV實現圖像拼接

    以上公式,我們可以理解為,透視矩陣是原始平面可目標平面之間的一種轉換關系

    圖像拷貝

    將一副圖像拷貝到另一副圖像上的過程

    怎么使用C++?OpenCV實現圖像拼接

    二、案例實現

    Step1:導入目標圖片

    設置需要處理的兩張圖片,進行拼接準備工作 

        Mat left=imread("C:/Users/86177/Desktop/image/a11.png");//左側:圖片路徑
        Mat right=imread("C:/Users/86177/Desktop/image/a22.png");//右側:圖片路徑
     
        imshow("left",left);
        imshow("right",right);

    Step2:特征點提取和匹配 

    用SIFT算法來實現圖像拼接是很常用的方法,雖說SURF精確度和穩定性不及SIFT,但是其綜合能力還是優越一些

        //創建SURF對象
        Ptr<SURF>surf;   //可以容納800個特征點
        surf = SURF::create(800);//參數 查找的海森矩陣 create 海森矩陣閥值
     
        //暴力匹配器
        BFMatcher matcher;
     
        vector<KeyPoint>key1,key2;
        Mat c,d;
     
        //尋找特征點
        surf->detectAndCompute(left,Mat(),key2,d);
        surf->detectAndCompute(right,Mat(),key1,c);
     
        //特征點對比,保存下來
        vector<DMatch>matches;//DMatch 點和點之間的關系
        //使用暴力匹配器匹配特征點,找到存來
        matcher.match(d,c,matches);
     
        //排序 從小到大
        sort(matches.begin(),matches.end());
     
        //保留最優的特征點對象
        vector<DMatch>good_matches;//最優
     
        //設置比例
        int ptrPoint = std::min(50,(int)(matches.size()*0.15));
     
        for(int i = 0;i < ptrPoint;i++)
        {
            good_matches.push_back(matches[i]);
        }
     
        //最佳匹配的特征點連成線
        Mat outimg;
     
        drawMatches(left,key2,right,key1,good_matches,outimg,
                    Scalar::all(-1),Scalar::all(-1),
                    vector<char>(),DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);
     
        imshow("outimg",outimg);

    Step3:圖像配準

    我們就可以得到了兩幅待拼接圖的匹配點集,接下來我們進行圖像的配準,即將兩張圖像轉換為同一坐標下

        //特征點配準
        vector<Point2f>imagepoint1,imagepoint2;
     
        for(int i = 0;i<good_matches.size();i++)
        {
            imagepoint1.push_back(key1[good_matches[i].trainIdx].pt);
            imagepoint2.push_back(key2[good_matches[i].queryIdx].pt);
        }
     
        //透視轉換
        Mat homo = findHomography(imagepoint1,imagepoint2,CV_RANSAC);
     
        imshow("homo",homo);

    Step4:圖像拷貝

    將我們的左圖拷貝到設置好的配準圖(右圖)上 

        //創建拼接后的圖,計算圖的大小
        int dst_width = imageTranForm.cols;//獲取最右點為拼接圖長度
        int dst_height = left.rows;
     
        Mat dst(dst_height,dst_width,CV_8UC3);
        dst.setTo(0);
     
        imageTranForm.copyTo(dst(Rect(0,0,imageTranForm.cols,imageTranForm.rows)));
        left.copyTo(dst(Rect(0,0,left.cols,left.rows)));
                
        imshow("dst",dst);

    Step5:圖像融合

    去裂縫處理,讓我們的優化兩圖的連接處,使得拼接自然

    PS:上面拼接完的圖片看不太出來,拼接處理中,還是建議用上

    //優化兩圖的連接處,使得拼接自然
    void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
    {
        int start = MIN(corners.left_top.x, corners.left_bottom.x);//開始位置,即重疊區域的左邊界
     
        double processWidth = img1.cols - start;//重疊區域的寬度
        int rows = dst.rows;
        int cols = img1.cols; //注意,是列數*通道數
        double alpha = 1;//img1中像素的權重
        for (int i = 0; i < rows; i++)
        {
            uchar* p = img1.ptr<uchar>(i);  //獲取第i行的首地址
            uchar* t = trans.ptr<uchar>(i);
            uchar* d = dst.ptr<uchar>(i);
            for (int j = start; j < cols; j++)
            {
                //如果遇到圖像trans中無像素的黑點,則完全拷貝img1中的數據
                if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)
                {
                    alpha = 1;
                }
                else
                {
                    //img1中像素的權重,與當前處理點距重疊區域左邊界的距離成正比,實驗證明,這種方法確實好
                    alpha = (processWidth - (j - start)) / processWidth;
                }
     
                d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);
                d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);
                d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);
     
            }
        }
     
    }

    完整代碼

    #include <iostream>
    #include <opencv2/opencv.hpp>
    #include <opencv2/highgui.hpp>
    #include <opencv2/xfeatures2d.hpp>
    #include <opencv2/calib3d.hpp>
    #include <opencv2/imgproc.hpp>
     
    using namespace std;
    using namespace cv;
    using namespace cv::xfeatures2d;
     
    typedef struct
    {
        //四個頂點
        Point2f left_top;
        Point2f left_bottom;
        Point2f right_top;
        Point2f right_bottom;
    }four_corners_t;
     
    four_corners_t corners;
     
    //計算配準圖的四個頂點坐標
    void CalcCorners(const Mat& H, const Mat& src)
    {
        double v2[] = { 0, 0, 1 };//左上角
        double v1[3];//變換后的坐標值
        Mat V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
        Mat V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
     
        V1 = H * V2;
        //左上角(0,0,1)
        cout << "V2: " << V2 << endl;
        cout << "V1: " << V1 << endl;
        corners.left_top.x = v1[0] / v1[2];
        corners.left_top.y = v1[1] / v1[2];
     
        //左下角(0,src.rows,1)
        v2[0] = 0;
        v2[1] = src.rows;
        v2[2] = 1;
        V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
        V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
        V1 = H * V2;
        corners.left_bottom.x = v1[0] / v1[2];
        corners.left_bottom.y = v1[1] / v1[2];
     
        //右上角(src.cols,0,1)
        v2[0] = src.cols;
        v2[1] = 0;
        v2[2] = 1;
        V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
        V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
        V1 = H * V2;
        corners.right_top.x = v1[0] / v1[2];
        corners.right_top.y = v1[1] / v1[2];
     
        //右下角(src.cols,src.rows,1)
        v2[0] = src.cols;
        v2[1] = src.rows;
        v2[2] = 1;
        V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
        V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
        V1 = H * V2;
        corners.right_bottom.x = v1[0] / v1[2];
        corners.right_bottom.y = v1[1] / v1[2];
     
    }
     
    //優化兩圖的連接處,使得拼接自然
    void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
    {
        int start = MIN(corners.left_top.x, corners.left_bottom.x);//開始位置,即重疊區域的左邊界
     
        double processWidth = img1.cols - start;//重疊區域的寬度
        int rows = dst.rows;
        int cols = img1.cols; //注意,是列數*通道數
        double alpha = 1;//img1中像素的權重
        for (int i = 0; i < rows; i++)
        {
            uchar* p = img1.ptr<uchar>(i);  //獲取第i行的首地址
            uchar* t = trans.ptr<uchar>(i);
            uchar* d = dst.ptr<uchar>(i);
            for (int j = start; j < cols; j++)
            {
                //如果遇到圖像trans中無像素的黑點,則完全拷貝img1中的數據
                if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)
                {
                    alpha = 1;
                }
                else
                {
                    //img1中像素的權重,與當前處理點距重疊區域左邊界的距離成正比,實驗證明,這種方法確實好
                    alpha = (processWidth - (j - start)) / processWidth;
                }
     
                d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);
                d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);
                d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);
     
            }
        }
     
    }
     
    int main(int argc, char *argv[])
    {
        Mat left=imread("C:/Users/86177/Desktop/image/test(1).png");//左側:圖片路徑
        Mat right=imread("C:/Users/86177/Desktop/image/test(2).png");//右側:圖片路徑
     
        imshow("left",left);
        imshow("right",right);
     
        //創建SURF對象
        Ptr<SURF>surf;   //可以容納800個特征點
        surf = SURF::create(800);//參數 查找的海森矩陣 create 海森矩陣閥值
     
        //暴力匹配器
        BFMatcher matcher;
     
        vector<KeyPoint>key1,key2;
        Mat c,d;
     
        //尋找特征點
        surf->detectAndCompute(left,Mat(),key2,d);
        surf->detectAndCompute(right,Mat(),key1,c);
     
        //特征點對比,保存下來
        vector<DMatch>matches;//DMatch 點和點之間的關系
        //使用暴力匹配器匹配特征點,找到存來
        matcher.match(d,c,matches);
     
        //排序 從小到大
        sort(matches.begin(),matches.end());
     
        //保留最優的特征點對象
        vector<DMatch>good_matches;//最優
     
        //設置比例
        int ptrPoint = std::min(50,(int)(matches.size()*0.15));
     
        for(int i = 0;i < ptrPoint;i++)
        {
            good_matches.push_back(matches[i]);
        }
     
        //最佳匹配的特征點連成線
        Mat outimg;
     
        drawMatches(left,key2,right,key1,good_matches,outimg,
                    Scalar::all(-1),Scalar::all(-1),
                    vector<char>(),DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);
     
        imshow("outimg",outimg);
     
        //特征點配準
        vector<Point2f>imagepoint1,imagepoint2;
     
        for(int i = 0;i<good_matches.size();i++)
        {
            imagepoint1.push_back(key1[good_matches[i].trainIdx].pt);
            imagepoint2.push_back(key2[good_matches[i].queryIdx].pt);
        }
     
        //透視轉換
        Mat homo = findHomography(imagepoint1,imagepoint2,CV_RANSAC);
     
        imshow("homo",homo);
     
        //四個頂點坐標的轉換計算
        CalcCorners(homo,right);
     
        Mat imageTranForm;
        warpPerspective(right,imageTranForm,homo,
                        Size(MAX(corners.right_top.x,
                                 corners.right_bottom.x),
                             left.rows));
     
        imshow("imageTranForm",imageTranForm);
     
        //創建拼接后的圖,計算圖的大小
        int dst_width = imageTranForm.cols;//獲取最右點為拼接圖長度
        int dst_height = left.rows;
     
        Mat dst(dst_height,dst_width,CV_8UC3);
        dst.setTo(0);
     
        imageTranForm.copyTo(dst(Rect(0,0,imageTranForm.cols,imageTranForm.rows)));
        left.copyTo(dst(Rect(0,0,left.cols,left.rows)));
     
        //優化拼接,主要目的去除黑邊
        OptimizeSeam(left,imageTranForm, dst);
     
        imshow("dst",dst);
     
        waitKey(0);
     
        return 0;
    }

    關于“怎么使用C++ OpenCV實現圖像拼接”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“怎么使用C++ OpenCV實現圖像拼接”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    龙山县| 七台河市| 夹江县| 长宁区| 南丰县| 齐齐哈尔市| 中超| 托里县| 灵台县| 梧州市| 克东县| 泸州市| 临武县| 盐城市| 溆浦县| 遵义市| 榆树市| 肇东市| 南通市| 获嘉县| 樟树市| 广州市| 永安市| 兖州市| 京山县| 上蔡县| 左云县| 龙陵县| 嘉祥县| 玉田县| 镇远县| 凤凰县| 浑源县| 旺苍县| 桦川县| 兴宁市| 石景山区| 东兰县| 平定县| 昭平县| 曲阳县|