Node.js-lapsiprosessit: Kaikki mitä sinun tarvitsee tietää

Kuinka kutea (), exec (), execFile () ja haarukka ()

Päivitys: Tämä artikkeli on nyt osa kirjaani “Node.js Beyond The Basics”.

Lue päivitetty versio tästä sisällöstä ja lisää solmusta osoitteessa jscomplete.com/node-beyond-basics .

Node.js: n yksisäikeinen, estämätön suorituskyky toimii hyvin yhdessä prosessissa. Mutta lopulta yksi prosessi yhdessä suorittimessa ei riitä käsittelemään sovelluksesi kasvavaa työmäärää.

Riippumatta siitä, kuinka voimakas palvelimesi on, yksi ketju tukee vain rajoitettua kuormitusta.

Se, että Node.js toimii yhdessä säikeessä, ei tarkoita sitä, ettemme voi hyödyntää useita prosesseja ja tietysti myös useita koneita.

Useiden prosessien käyttö on paras tapa skaalata Node-sovellusta. Node.js on suunniteltu monien solmujen sisältävien hajautettujen sovellusten rakentamiseen. Siksi sen nimi on Solmu . Skaalautuvuus leivotaan alustalle, eikä se ole asia, josta aloitat myöhemmin sovelluksen elinaikana.

Tämä artikkeli on kirjoitus osasta Node.js: tä koskevaa Pluralsight-kurssia Katan samanlaisen sisällön videomuodossa siellä.

Huomaa, että sinun on ymmärrettävä hyvin Node.js- tapahtumat ja -virrat, ennen kuin luet tämän artikkelin. Jos et ole vielä tehnyt niin, suosittelen, että luet nämä kaksi muuta artikkelia ennen kuin luet tämän:

Node.js-tapahtumapohjaisen arkkitehtuurin ymmärtäminen

Suurin osa Solmun objekteista - kuten HTTP-pyynnöt, vastaukset ja suoratoistot - toteuttavat EventEmitter-moduulin, jotta he voivat…

Streamit: Kaikki mitä sinun tarvitsee tietää

Node.js-virroilla on maine siitä, että heidän kanssaan on vaikea työskennellä ja vielä vaikeampaa ymmärtää. Minulla on hyviä uutisia ...

Lapsiprosessimoduuli

Voimme helposti kääntää aliprosessin Solmun child_processmoduulin avulla, ja nämä aliprosessit voivat helposti kommunikoida keskenään viestintäjärjestelmän kanssa.

child_processModuuli mahdollistaa pääsyn Käyttöjärjestelmä toimintoja ajamalla tahansa järjestelmää komennon sisällä, hyvin, lapsi prosessi.

Voimme hallita tätä aliprosessin tulovirtaa ja kuunnella sen lähtövirtaa. Voimme myös hallita argumentteja, jotka välitetään taustalla olevalle käyttöjärjestelmäkomennolle, ja voimme tehdä mitä haluamme komennon lähdöllä. Voimme esimerkiksi putkia yhden komennon lähdön tuloksi toiseen (aivan kuten Linuxissa), koska näiden komentojen kaikki tulot ja lähdöt voidaan esittää meille Node.js-virtojen avulla.

Huomaa, että tässä artikkelissa käyttämäni esimerkit ovat kaikki Linux-pohjaisia. Windowsissa sinun on vaihdettava käyttämäni komennot niiden Windows-vaihtoehtojen kanssa.

On neljä eri tapaa luoda lapselle solmussa: spawn(), fork(), exec(), ja execFile().

Näemme näiden neljän toiminnon erot ja milloin niitä käytetään.

Syntyneet lapsen prosessit

spawnToiminto käynnistää komennon uudessa prosessissa ja voimme käyttää sitä siirtää komennon argumentteja. Esimerkiksi tässä on koodi, jolla syntyy uusi prosessi, joka suorittaa pwdkomennon.

const { spawn } = require('child_process'); const child = spawn('pwd');

Hajotamme spawntoiminnon yksinkertaisesti child_processmoduulista ja suoritamme sen OS-komennolla ensimmäisenä argumenttina.

Tuloksena suorittamalla spawntoiminto (jäljempänä childEdellä mainittu tavoite) on ChildProcessesimerkiksi, joka toteuttaa EventEmitter API. Tämä tarkoittaa, että voimme rekisteröidä käsittelijät suoraan tämän lapsiobjektin tapahtumiin. Esimerkiksi voimme tehdä jotain, kun lapsiprosessi poistuu, rekisteröimällä ohjaajan exittapahtumaan:

child.on('exit', function (code, signal) { console.log('child process exited with ' + `code ${code} and signal ${signal}`); });

Yllä oleva käsittelijä antaa meille codelähtökohdan lapsiprosessille ja signal, jos sellaista on, jota käytettiin lapsen prosessin lopettamiseen. Tämä signalmuuttuja on nolla, kun lapsiprosessi poistuu normaalisti.

Muut tapahtumat, että voimme rekisteröidä käsittelijät kanssa ChildProcesstapauksissa ovat disconnect, error, close, ja message.

  • disconnectTapahtuma kuuluu kun äitiprosessin käsin kutsuu child.disconnecttoimintoa.
  • errorTapahtuma säteilee jos prosessi ei poikinut tai tapettu.
  • closeTapahtuma lähtee, kun stdiovirrat lapsiprosessin sulkeutuvat.
  • messageTapahtuma on tärkein. Se lähetetään, kun lapsiprosessi käyttää process.send()toimintoa viestien lähettämiseen. Näin vanhempien / lasten prosessit voivat olla yhteydessä toisiinsa. Näemme esimerkin tästä alla.

Jokainen lapsi prosessi saa myös kolme standardia stdiovirtoja, joita voimme käyttää käyttää child.stdin, child.stdoutja child.stderr.

Kun nuo virrat sulkeutuvat, niitä käyttävä lapsiprosessi lähettää closetapahtuman. Tämä closetapahtuma on erilainen kuin exittapahtuma, koska usealla aliprosessilla voi olla samat stdiovirrat, joten yksi aliprosessista poistuminen ei tarkoita, että virrat suljettiin.

Koska kaikki virrat ovat tapahtumien lähettäjiä, voimme kuunnella eri tapahtumia stdiojokaisessa lapsiprosessissa olevissa virroissa. Toisin kuin normaalissa prosessissa, aliprosessissa stdout/ stderr-virrat ovat luettavissa olevia virtoja, kun taas stdinvirta on kirjoitettava. Tämä on pohjimmiltaan näiden tyyppien käänteinen muoto, joka löytyy pääprosessista. Tapahtumat, joita voimme käyttää noihin virtauksiin, ovat tavanomaisia ​​tapahtumia. Tärkeintä on, että luettavissa olevissa virroissa voimme kuunnella datatapahtumaa, jolla on komennon tulos tai mikä tahansa virhe, joka ilmenee komennon suorittamisen yhteydessä:

child.stdout.on('data', (data) => { console.log(`child stdout:\n${data}`); }); child.stderr.on('data', (data) => { console.error(`child stderr:\n${data}`); });

Kaksi yllä olevaa käsittelijää kirjaavat molemmat tapaukset pääprosessiin stdoutja stderr. Kun suoritamme spawnyllä olevan toiminnon, pwdkomennon tulos tulostetaan ja lapsiprosessi poistuu koodilla 0, mikä tarkoittaa, ettei virheitä tapahtunut.

Voimme välittää argumentit spawnfunktion suorittamalle komennolle käyttämällä funktion toista argumenttia spawn, joka on joukko kaikista komennolle välitettävistä argumenteista. Esimerkiksi findkomennon suorittamiseksi nykyisessä hakemistossa -type fargumentilla (vain tiedostojen luetteloimiseksi) voimme tehdä:

const child = spawn('find', ['.', '-type', 'f']);

Jos komennon suorittamisen aikana tapahtuu virhe, esimerkiksi jos annamme yllä olevan virheellisen kohteen, child.stderrdatatapahtumakäsittelijä käynnistyy ja exittapahtumankäsittelijä ilmoittaa poistumistunnuksen 1, mikä tarkoittaa virheen tapahtumista. Virhearvot riippuvat itse asiassa isäntä-käyttöjärjestelmästä ja virhetyypistä.

Lapsi prosessi stdinon kirjoitettava virta. Voimme käyttää sitä lähettämään komennolle jonkin verran syötettä. Aivan kuten mikä tahansa kirjoitettava virta, helpoin tapa käyttää sitä on käyttää pipetoimintoa. Yhdistämme yksinkertaisesti luettavan virran kirjoitettavaksi virraksi. Koska pääprosessi stdinon luettava virta, voimme viedä sen stdinaliprosessivirtaan. Esimerkiksi:

const { spawn } = require('child_process'); const child = spawn('wc'); process.stdin.pipe(child.stdin) child.stdout.on('data', (data) => { console.log(`child stdout:\n${data}`); });

In the example above, the child process invokes the wc command, which counts lines, words, and characters in Linux. We then pipe the main process stdin (which is a readable stream) into the child process stdin (which is a writable stream). The result of this combination is that we get a standard input mode where we can type something and when we hit Ctrl+D, what we typed will be used as the input of the wc command.

We can also pipe the standard input/output of multiple processes on each other, just like we can do with Linux commands. For example, we can pipe the stdout of the find command to the stdin of the wc command to count all the files in the current directory:

const { spawn } = require('child_process'); const find = spawn('find', ['.', '-type', 'f']); const wc = spawn('wc', ['-l']); find.stdout.pipe(wc.stdin); wc.stdout.on('data', (data) => { console.log(`Number of files ${data}`); });

I added the -l argument to the wc command to make it count only the lines. When executed, the code above will output a count of all files in all directories under the current one.

Shell Syntax and the exec function

By default, the spawn function does not create a shell to execute the command we pass into it. This makes it slightly more efficient than the exec function, which does create a shell. The exec function has one other major difference. It buffers the command’s generated output and passes the whole output value to a callback function (instead of using streams, which is what spawn does).

Here’s the previous find | wc example implemented with an exec function.

const { exec } = require('child_process'); exec('find . -type f | wc -l', (err, stdout, stderr) => { if (err) { console.error(`exec error: ${err}`); return; } console.log(`Number of files ${stdout}`); });

Since the exec function uses a shell to execute the command, we can use the shell syntax directly here making use of the shell pipe feature.

Note that using the shell syntax comes at a security risk if you’re executing any kind of dynamic input provided externally. A user can simply do a command injection attack using shell syntax characters like ; and $ (for example, command + ’; rm -rf ~’ )

The exec function buffers the output and passes it to the callback function (the second argument to exec) as the stdout argument there. This stdout argument is the command’s output that we want to print out.

The exec function is a good choice if you need to use the shell syntax and if the size of the data expected from the command is small. (Remember, exec will buffer the whole data in memory before returning it.)

The spawn function is a much better choice when the size of the data expected from the command is large, because that data will be streamed with the standard IO objects.

We can make the spawned child process inherit the standard IO objects of its parents if we want to, but also, more importantly, we can make the spawn function use the shell syntax as well. Here’s the same find | wc command implemented with the spawn function:

const child = spawn('find . -type f | wc -l', { stdio: 'inherit', shell: true });

Because of the stdio: 'inherit' option above, when we execute the code, the child process inherits the main process stdin, stdout, and stderr. This causes the child process data events handlers to be triggered on the main process.stdout stream, making the script output the result right away.

Because of the shell: true option above, we were able to use the shell syntax in the passed command, just like we did with exec. But with this code, we still get the advantage of the streaming of data that the spawn function gives us. This is really the best of both worlds.

There are a few other good options we can use in the last argument to the child_process functions besides shell and stdio. We can, for example, use the cwd option to change the working directory of the script. For example, here’s the same count-all-files example done with a spawn function using a shell and with a working directory set to my Downloads folder. The cwd option here will make the script count all files I have in ~/Downloads:

const child = spawn('find . -type f | wc -l', { stdio: 'inherit', shell: true, cwd: '/Users/samer/Downloads' });

Another option we can use is the env option to specify the environment variables that will be visible to the new child process. The default for this option is process.env which gives any command access to the current process environment. If we want to override that behavior, we can simply pass an empty object as the env option or new values there to be considered as the only environment variables:

const child = spawn('echo $ANSWER', { stdio: 'inherit', shell: true, env: { ANSWER: 42 }, });

The echo command above does not have access to the parent process’s environment variables. It can’t, for example, access $HOME, but it can access $ANSWER because it was passed as a custom environment variable through the env option.

One last important child process option to explain here is the detached option, which makes the child process run independently of its parent process.

Assuming we have a file timer.js that keeps the event loop busy:

setTimeout(() => { // keep the event loop busy }, 20000);

We can execute it in the background using the detached option:

const { spawn } = require('child_process'); const child = spawn('node', ['timer.js'], { detached: true, stdio: 'ignore' }); child.unref();

The exact behavior of detached child processes depends on the OS. On Windows, the detached child process will have its own console window while on Linux the detached child process will be made the leader of a new process group and session.

If the unref function is called on the detached process, the parent process can exit independently of the child. This can be useful if the child is executing a long-running process, but to keep it running in the background the child’s stdio configurations also have to be independent of the parent.

The example above will run a node script (timer.js) in the background by detaching and also ignoring its parent stdio file descriptors so that the parent can terminate while the child keeps running in the background.

The execFile function

If you need to execute a file without using a shell, the execFile function is what you need. It behaves exactly like the exec function, but does not use a shell, which makes it a bit more efficient. On Windows, some files cannot be executed on their own, like .bat or .cmd files. Those files cannot be executed with execFile and either exec or spawn with shell set to true is required to execute them.

The *Sync function

The functions spawn, exec, and execFile from the child_process module also have synchronous blocking versions that will wait until the child process exits.

const { spawnSync, execSync, execFileSync, } = require('child_process');

Those synchronous versions are potentially useful when trying to simplify scripting tasks or any startup processing tasks, but they should be avoided otherwise.

The fork() function

The fork function is a variation of the spawn function for spawning node processes. The biggest difference between spawn and fork is that a communication channel is established to the child process when using fork, so we can use the send function on the forked process along with the global process object itself to exchange messages between the parent and forked processes. We do this through the EventEmitter module interface. Here’s an example:

The parent file, parent.js:

const { fork } = require('child_process'); const forked = fork('child.js'); forked.on('message', (msg) => { console.log('Message from child', msg); }); forked.send({ hello: 'world' });

The child file, child.js:

process.on('message', (msg) => { console.log('Message from parent:', msg); }); let counter = 0; setInterval(() => { process.send({ counter: counter++ }); }, 1000);

In the parent file above, we fork child.js (which will execute the file with the node command) and then we listen for the message event. The message event will be emitted whenever the child uses process.send, which we’re doing every second.

To pass down messages from the parent to the child, we can execute the send function on the forked object itself, and then, in the child script, we can listen to the message event on the global process object.

When executing the parent.js file above, it’ll first send down the { hello: 'world' } object to be printed by the forked child process and then the forked child process will send an incremented counter value every second to be printed by the parent process.

Let’s do a more practical example about the fork function.

Let’s say we have an http server that handles two endpoints. One of these endpoints (/compute below) is computationally expensive and will take a few seconds to complete. We can use a long for loop to simulate that:

const http = require('http'); const longComputation = () => { let sum = 0; for (let i = 0; i  { if (req.url === '/compute') { const sum = longComputation(); return res.end(`Sum is ${sum}`); } else { res.end('Ok') } }); server.listen(3000);

This program has a big problem; when the the /compute endpoint is requested, the server will not be able to handle any other requests because the event loop is busy with the long for loop operation.

There are a few ways with which we can solve this problem depending on the nature of the long operation but one solution that works for all operations is to just move the computational operation into another process using fork.

We first move the whole longComputation function into its own file and make it invoke that function when instructed via a message from the main process:

In a new compute.js file:

const longComputation = () => { let sum = 0; for (let i = 0; i  { const sum = longComputation(); process.send(sum); });

Now, instead of doing the long operation in the main process event loop, we can fork the compute.js file and use the messages interface to communicate messages between the server and the forked process.

const http = require('http'); const { fork } = require('child_process'); const server = http.createServer(); server.on('request', (req, res) => { if (req.url === '/compute') { const compute = fork('compute.js'); compute.send('start'); compute.on('message', sum => { res.end(`Sum is ${sum}`); }); } else { res.end('Ok') } }); server.listen(3000);

When a request to /compute happens now with the above code, we simply send a message to the forked process to start executing the long operation. The main process’s event loop will not be blocked.

Once the forked process is done with that long operation, it can send its result back to the parent process using process.send.

Vanhempaprosessissa kuuntelemme messagetapahtumaa itse haarautuneessa lapsiprosessissa. Kun saamme kyseisen tapahtuman, meillä on sumarvo, jonka voimme lähettää pyytävälle käyttäjälle http: n kautta.

Yllä olevaa koodia on tietysti rajoitettu haaroitettavien prosessien lukumäärällä, mutta kun suoritamme sen ja pyydämme pitkää laskentapäätettä http: n kautta, pääpalvelinta ei ole ollenkaan estetty ja se voi ottaa vastaan ​​lisää pyyntöjä.

Solmun clustermoduuli, joka on seuraavan artikkelin aihe, perustuu tähän ajatukseen lasten prosessin haarautumisesta ja kuormituksen tasapainottamisesta monissa haarukoissa, jotka voimme luoda mihin tahansa järjestelmään.

Se on kaikki mitä minulla on tästä aiheesta. Kiitos lukemisesta! Ensi kertaan!

Oppiminen React tai Solmu? Tarkista kirjat:

  • Opi React.js rakentamalla pelejä
  • Node.js perusasioiden ulkopuolella