亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何利用PHP讀取大文件

發布時間:2022-09-23 09:34:19 來源:億速云 閱讀:118 作者:iii 欄目:編程語言

這篇文章主要介紹了如何利用PHP讀取大文件的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇如何利用PHP讀取大文件文章都會有所收獲,下面我們一起來看看吧。

衡量成功

唯一能確認我們對代碼所做改進是否有效的方式是:衡量一個糟糕的情況,然后對比我們已經應用改進后的衡量情況。換言之,除非我們知道“解決方案”能幫我們到什么程度(如果有的話),否則我們并不知道它是否是一個解決方案。

我們可以關注兩個指標。首先是CPU使用率。我們要處理的過程運行得有多快或多慢?其次是內存使用率。腳本執行要占用多少內存?這些通常是成反比的—這意味著我們能夠以CPU使用率為代價減少內存的使用率,反之亦可。

在一個異步處理模型(例如多進程或多線程PHP應用程序)中,CPU和內存使用率都是重要的考量。在傳統PHP架構中,任一達到服務器所限時這些通常都會成為一個麻煩。

測量PHP內部的CPU使用率是難以實現的。如果你確實關注這一塊,可用考慮在Ubuntu或macOS中使用類似于 top 的命令。對于Windows,則可用考慮使用Linux子系統,這樣你就能夠在Ubuntu中使用 top 命令了。

以下是我們用于查看內存使用量的方法:

// formatBytes 方法取材于 php.net 文檔

memory_get_peak_usage();

function formatBytes($bytes, $precision = 2) {
    $units = array("b", "kb", "mb", "gb", "tb");

    $bytes = max($bytes, 0);
    $pow = floor(($bytes ? log($bytes) : 0) / log(1024));
    $pow = min($pow, count($units) - 1);

    $bytes /= (1 << (10 * $pow));

    return round($bytes, $precision) . " " . $units[$pow];
}

我們將在腳本的結尾處使用這些方法,以便于我們了解哪個腳本一次使用了最多的內存。

我們有什么選擇?

我們有許多方法來有效地讀取文件。有以下兩種場景會使用到他們。我們可能希望同時讀取和處理所有數據,對處理后的數據進行輸出或者執行其他操作。 我們還可能希望對數據流進行轉換而不需要訪問到這些數據。

想象以下,對于第一種情況,如果我們希望讀取文件并且把每 10,000 行的數據交給單獨的隊列進行處理。我們則需要至少把 10,000 行的數據加載到內存中,然后把它們交給隊列管理器(無論使用哪種)。

對于第二種情況,假設我們想要壓縮一個 API 響應的內容,這個 API 響應特別大。雖然這里我們不關心它的內容是什么,但是我們需要確保它被以一種壓縮格式備份起來。

這兩種情況,我們都需要讀取大文件。不同的是,第一種情況我們需要知道數據是什么,而第二種情況我們不關心數據是什么。接下來,讓我們來深入討論一下這兩種做法...

逐行讀取文件

PHP 處理文件的函數很多,讓我們將其中一些函數結合起來實現一個簡單的文件閱讀器

// from memory.php

function formatBytes($bytes, $precision = 2) {
    $units = array("b", "kb", "mb", "gb", "tb");

    $bytes = max($bytes, 0);
    $pow = floor(($bytes ? log($bytes) : 0) / log(1024));
    $pow = min($pow, count($units) - 1);

    $bytes /= (1 << (10 * $pow));

    return round($bytes, $precision) . " " . $units[$pow];
}

print formatBytes(memory_get_peak_usage());
// from reading-files-line-by-line-1.php
function readTheFile($path) {
    $lines = [];
    $handle = fopen($path, "r");

    while(!feof($handle)) {
        $lines[] = trim(fgets($handle));
    }

    fclose($handle);
    return $lines;
}

readTheFile("shakespeare.txt");

require "memory.php";

我們正在閱讀一個包括莎士比亞全部著作的文本文件。該文件大小大約為 5.5 MB。內存使用峰值為 12.8 MB。現在,讓我們使用生成器來讀取每一行:

// from reading-files-line-by-line-2.php

function readTheFile($path) {
    $handle = fopen($path, "r");

    while(!feof($handle)) {
        yield trim(fgets($handle));
    }

    fclose($handle);
}

readTheFile("shakespeare.txt");

require "memory.php";

文件大小相同,但是內存使用峰值為 393 KB。這個數據意義大不大,因為我們需要加入對文件數據的處理。例如,當出現兩個空白行時,將文檔拆分為多個塊:

// from reading-files-line-by-line-3.php

$iterator = readTheFile("shakespeare.txt");

$buffer = "";

foreach ($iterator as $iteration) {
    preg_match("/\n{3}/", $buffer, $matches);

    if (count($matches)) {
        print ".";
        $buffer = "";
    } else {
        $buffer .= $iteration . PHP_EOL;
    }
}

require "memory.php";

有人猜測這次使用多少內存嗎?即使我們將文本文檔分為 126 個塊,我們仍然只使用 459 KB 的內存。鑒于生成器的性質,我們將使用的最大內存是在迭代中需要存儲最大文本塊的內存。在這種情況下,最大的塊是 101985 個字符。

我已經寫過 使用生成器提高性能 以及 生成器擴展包,感興趣的可以去查看更多相關內容。

生成器還有其他用途,但顯然它可以很好的讀取大型文件。如果我們需要處理數據,生成器可能是最好的方法。

文件之間的管道

在不需要處理數據的情況下,我們可以將文件數據從一個文件傳遞到另一個文件。這通常稱為管道 (大概是因為除了兩端之外,我們看不到管道內的任何東西,當然,只要它是不透明的)。我們可以通過流(stream)來實現,首先,我們編寫一個腳本實現一個文件到另一個文件的傳輸,以便我們可以測量內存使用情況:

// from piping-files-1.php

file_put_contents(
    "piping-files-1.txt", file_get_contents("shakespeare.txt")
);

require "memory.php";

結果并沒有讓人感到意外。該腳本比其復制的文本文件使用更多的內存來運行。這是因為腳本必須在內存中讀取整個文件直到將其寫入另外一個文件。對于小的文件而言,這種操作是 OK 的。但是將其用于大文件時,就不是那么回事了。

讓我們嘗試從一個文件流式傳輸(或管道傳輸)到另一個文件:

// from piping-files-2.php

$handle1 = fopen("shakespeare.txt", "r");
$handle2 = fopen("piping-files-2.txt", "w");

stream_copy_to_stream($handle1, $handle2);

fclose($handle1);
fclose($handle2);

require "memory.php";

這段代碼有點奇怪。我們打開兩個文件的句柄,第一個處于讀取模式,第二個處于寫入模式。然后,我們從第一個復制到第二個。我們通過再次關閉兩個文件來完成。當你知道內存使用為 393 KB 時,可能會感到驚訝。

這個數字看起來很熟悉,這不就是利用生成器保存逐行讀取內容時所使用的內存嗎。這是因為  fgets 的第二個參數定義了每行要讀取的字節數(默認為 -1 或到達新行之前的長度)。

stream_copy_to_stream 的第三個參數是相同的(默認值完全相同)。stream_copy_to_stream 一次從一個流讀取一行,并將其寫入另一流。由于我們不需要處理該值,因此它會跳過生成器產生值的部分

單單傳輸文字還不夠實用,所以考慮下其他例子。假設我們想從 CDN 輸出圖像,可以用以下代碼來描述

// from piping-files-3.php

file_put_contents(
    "piping-files-3.jpeg", file_get_contents(
        "https://github.com/assertchris/uploads/raw/master/rick.jpg"
    )
);

// ...or write this straight to stdout, if we don't need the memory info

require "memory.php";

想象一下應用程度執行到該步驟。這次我們不是要從本地文件系統中獲取圖像,而是從 CDN 獲取。我們用 file_get_contents 代替更優雅的處理方式(例如Guzzle),它們的實際效果是一樣的。

內存使用情況為 581KB,現在,我們如何嘗試進行流傳輸呢?

// from piping-files-4.php

$handle1 = fopen(
    "https://github.com/assertchris/uploads/raw/master/rick.jpg", "r"
);

$handle2 = fopen(
    "piping-files-4.jpeg", "w"
);

// ...or write this straight to stdout, if we don't need the memory info

stream_copy_to_stream($handle1, $handle2);

fclose($handle1);
fclose($handle2);

require "memory.php";

內存使用比剛才略少(400 KB),但是結果是相同的。如果我們不需要內存信息,也可以打印至標準輸出。PHP 提供了一種簡單的方法來執行此操作:

$handle1 = fopen(
    "https://github.com/assertchris/uploads/raw/master/rick.jpg", "r"
);

$handle2 = fopen(
    "php://stdout", "w"
);

stream_copy_to_stream($handle1, $handle2);

fclose($handle1);
fclose($handle2);

// require "memory.php";

其他流

還存在一些流可以通過管道來讀寫。

  • php://stdin  只讀

  • php://stderr  只寫,與 php://stdout 相似

  • php://input 只讀,使我們可以訪問原始請求內容

  • php://output 只寫,可讓我們寫入輸出緩沖區

  • php://memoryphp://temp (可讀寫) 是臨時存儲數據的地方。區別在于數據足夠大時 php:/// temp 就會將數據存儲在文件系統中,而php:/// memory將繼續存儲在內存中直到耗盡。

過濾器

我們可以對流使用另一個技巧,稱為過濾器。它介于兩者之間,對數據進行了適當的控制使其不暴露給外接。假設我們要壓縮 shakespeare.txt 文件。我們可以使用 Zip 擴展

// from filters-1.php

$zip = new ZipArchive();
$filename = "filters-1.zip";

$zip->open($filename, ZipArchive::CREATE);
$zip->addFromString("shakespeare.txt", file_get_contents("shakespeare.txt"));
$zip->close();

require "memory.php";

這段代碼雖然整潔,但是總共使用了大概 10.75 MB 的內存。我們可以使用過濾器來進行優化

// from filters-2.php

$handle1 = fopen(
    "php://filter/zlib.deflate/resource=shakespeare.txt", "r"
);

$handle2 = fopen(
    "filters-2.deflated", "w"
);

stream_copy_to_stream($handle1, $handle2);

fclose($handle1);
fclose($handle2);

require "memory.php";

在這里,我們可以看到 php:///filter/zlib.deflate 過濾器,該過濾器讀取和壓縮資源的內容。然后我們可以將該壓縮數據通過管道傳輸到另一個文件中。這僅使用了 896KB 內存。

雖然格式不同,或者說使用 zip 壓縮文件有其他諸多好處。但是,你不得不考慮:如果選擇其他格式你可以節省 12 倍的內存,你會不會心動?

要對數據進行解壓,只需要通過另外一個 zlib 過濾器:

// from filters-2.php

file_get_contents(
    "php://filter/zlib.inflate/resource=filters-2.deflated"
);

關于流,在 Understanding Streams in PHP 和 Using PHP Streams Effectively 文章中已經進行了廣泛的討論,如果你想要換個角度思考,可以查看以上這兩篇文章。

自定義流

fopenfile_get_contents 具有它們自己的默認選項集,但是它們是完全可定制的。要定義它們,我們需要創建一個新的流上下文

// from creating-contexts-1.php

$data = join("&", [
    "twitter=assertchris",
]);

$headers = join("\r\n", [
    "Content-type: application/x-www-form-urlencoded",
    "Content-length: " . strlen($data),
]);

$options = [
    "http" => [
        "method" => "POST",
        "header"=> $headers,
        "content" => $data,
    ],
];

$context = stream_content_create($options);

$handle = fopen("https://example.com/register", "r", false, $context);
$response = stream_get_contents($handle);

fclose($handle);

本例中,我們嘗試發送一個 POST 請求給 API。API 端點是安全的,不過我們仍然使用了 http 上下文屬性(可用于 http 或者 https)。我們設置了一些頭部,并打開了 API 的文件句柄。我們可以將句柄以只讀方式打開,上下文負責編寫。

自定義的內容很多,如果你想了解更多信息,可查看對應 文檔。

創建自定義協議和過濾器

在總結之前,我們先談談創建自定義協議。如果你查看 文檔,可以找到一個示例類:

Protocol {
    public resource $context;
    public __construct ( void )
    public __destruct ( void )
    public bool dir_closedir ( void )
    public bool dir_opendir ( string $path , int $options )
    public string dir_readdir ( void )
    public bool dir_rewinddir ( void )
    public bool mkdir ( string $path , int $mode , int $options )
    public bool rename ( string $path_from , string $path_to )
    public bool rmdir ( string $path , int $options )
    public resource stream_cast ( int $cast_as )
    public void stream_close ( void )
    public bool stream_eof ( void )
    public bool stream_flush ( void )
    public bool stream_lock ( int $operation )
    public bool stream_metadata ( string $path , int $option , mixed $value )
    public bool stream_open ( string $path , string $mode , int $options ,
        string &$opened_path )
    public string stream_read ( int $count )
    public bool stream_seek ( int $offset , int $whence = SEEK_SET )
    public bool stream_set_option ( int $option , int $arg1 , int $arg2 )
    public array stream_stat ( void )
    public int stream_tell ( void )
    public bool stream_truncate ( int $new_size )
    public int stream_write ( string $data )
    public bool unlink ( string $path )
    public array url_stat ( string $path , int $flags )
}

我們并不打算實現其中一個,因為我認為它值得擁有自己的教程。有很多工作要做。但是一旦完成工作,我們就可以很容易地注冊流包裝器:

if (in_array("highlight-names", stream_get_wrappers())) {
    stream_wrapper_unregister("highlight-names");
}

stream_wrapper_register("highlight-names", "HighlightNamesProtocol");

$highlighted = file_get_contents("highlight-names://story.txt");

同樣,也可以創建自定義流過濾器。 文檔 有一個示例過濾器類:

Filter {
    public $filtername;
    public $params
    public int filter ( resource $in , resource $out , int &$consumed ,
        bool $closing )
    public void onClose ( void )
    public bool onCreate ( void )
}

可被輕松注冊

$handle = fopen("story.txt", "w+");
stream_filter_append($handle, "highlight-names", STREAM_FILTER_READ);

highlight-names 需要與新過濾器類的 filtername 屬性匹配。還可以在 php:///filter/highligh-names/resource=story.txt 字符串中使用自定義過濾器。定義過濾器比定義協議要容易得多。原因之一是協議需要處理目錄操作,而過濾器僅需要處理每個數據塊。

如果您愿意,我強烈建議您嘗試創建自定義協議和過濾器。如果您可以將過濾器應用于stream_copy_to_stream操作,則即使處理令人討厭的大文件,您的應用程序也將幾乎不使用任何內存。想象一下編寫調整大小圖像過濾器或加密應用程序過濾器。

如果你愿意,我強烈建議你嘗試創建自定義協議和過濾器。如果你可以將過濾器應用于 stream_copy_to_stream 操作,即使處理煩人的大文件,你的應用程序也幾乎不使用任何內存。想象下編寫 resize-image 過濾器和  encrypt-for-application 過濾器吧。

關于“如何利用PHP讀取大文件”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“如何利用PHP讀取大文件”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

php
AI

昌吉市| 普格县| 水富县| 沁阳市| 合江县| 滁州市| 黑山县| 遵义市| 德惠市| 岗巴县| 政和县| 旺苍县| 休宁县| 临湘市| 江津市| 孝义市| 泰顺县| 金川县| 剑阁县| 萨迦县| 尼玛县| 华坪县| 随州市| 浦城县| 浮山县| 昭通市| 靖西县| 资兴市| 江源县| 布拖县| 浙江省| 延边| 海南省| 常州市| 庆安县| 灵武市| 花垣县| 阿勒泰市| 镇雄县| 沈阳市| 阳山县|