亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark編程python代碼分析

發布時間:2023-02-25 11:46:36 來源:億速云 閱讀:108 作者:iii 欄目:開發技術

今天小編給大家分享一下spark編程python代碼分析的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

    spark編程python實例

    ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[])

    1.pyspark在jupyter notebook中開發,測試,提交

    1.1.啟動

    IPYTHON_OPTS="notebook" /opt/spark/bin/pyspark

    spark編程python代碼分析

    下載應用,將應用下載為.py文件(默認notebook后綴是.ipynb)

    spark編程python代碼分析

    2.在shell中提交應用

    wxl@wxl-pc:/opt/spark/bin$ spark-submit /bin/spark-submit /home/wxl/Downloads/pysparkdemo.py

    spark編程python代碼分析

    3.遇到的錯誤及解決

    ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*])
    d*

    3.1.錯誤

    ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*])
    d*

    ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) created by <module> at /usr/local/lib/python2.7/dist-packages/IPython/utils/py3compat.py:288

    spark編程python代碼分析

    3.2.解決,成功運行

    在from之后添加

    try:
        sc.stop()
    except:
        pass
    sc=SparkContext('local[2]','First Spark App')

    spark編程python代碼分析

    貼上錯誤解決方法來源StackOverFlow

    4.源碼

    pysparkdemo.ipynb

    {
     "cells": [
      {
       "cell_type": "code",
       "execution_count": 1,
       "metadata": {
        "collapsed": true
       },
       "outputs": [],
       "source": [
        "from pyspark import SparkContext"
       ]
      },
      {
       "cell_type": "code",
       "execution_count": 2,
       "metadata": {
        "collapsed": true
       },
       "outputs": [],
       "source": [
        "try:\n",
        "    sc.stop()\n",
        "except:\n",
        "    pass\n",
        "sc=SparkContext('local[2]','First Spark App')"
       ]
      },
      {
       "cell_type": "code",
       "execution_count": 3,
       "metadata": {
        "collapsed": true
       },
       "outputs": [],
       "source": [
        "data = sc.textFile(\"data/UserPurchaseHistory.csv\").map(lambda line: line.split(\",\")).map(lambda record: (record[0], record[1], record[2]))"
       ]
      },
      {
       "cell_type": "code",
       "execution_count": 4,
       "metadata": {
        "collapsed": false,
        "scrolled": true
       },
       "outputs": [
        {
         "name": "stdout",
         "output_type": "stream",
         "text": [
          "Total purchases: 5\n"
         ]
        }
       ],
       "source": [
        "numPurchases = data.count()\n",
        "print \"Total purchases: %d\" % numPurchases"
       ]
      },
      {
       "cell_type": "code",
       "execution_count": null,
       "metadata": {
        "collapsed": true
       },
       "outputs": [],
       "source": []
      }
     ],
     "metadata": {
      "kernelspec": {
       "display_name": "Python 2",
       "language": "python",
       "name": "python2"
      },
      "language_info": {
       "codemirror_mode": {
        "name": "ipython",
        "version": 2
       },
       "file_extension": ".py",
       "mimetype": "text/x-python",
       "name": "python",
       "nbconvert_exporter": "python",
       "pygments_lexer": "ipython2",
       "version": "2.7.12"
      }
     },
     "nbformat": 4,
     "nbformat_minor": 0
    }

    pysparkdemo.py

    # coding: utf-8
    
    # In[1]:
    
    from pyspark import SparkContext
    
    
    # In[2]:
    
    try:
        sc.stop()
    except:
        pass
    sc=SparkContext('local[2]','First Spark App')
    
    
    # In[3]:
    
    data = sc.textFile("data/UserPurchaseHistory.csv").map(lambda line: line.split(",")).map(lambda record: (record[0], record[1], record[2]))
    
    
    # In[4]:
    
    numPurchases = data.count()
    print "Total purchases: %d" % numPurchases
    
    # In[ ]:

    以上就是“spark編程python代碼分析”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    西畴县| 定边县| 墨竹工卡县| 南木林县| 马龙县| 陆良县| 宜良县| 深圳市| 井研县| 巴林左旗| 怀安县| 台东市| 钟山县| 繁昌县| 武功县| 东宁县| 吕梁市| 万州区| 房山区| 嘉禾县| 通江县| 乌拉特前旗| 大方县| 余庆县| 灵山县| 筠连县| 宾川县| 广饶县| 汝州市| 平南县| 旺苍县| 枣阳市| 双城市| 乌拉特中旗| 宁安市| 庆阳市| 肇庆市| 南汇区| 崇信县| 商河县| 六盘水市|