您的位置:首页 > 游戏 > 游戏 > 注销公司要花多少费用_深圳龙华区房价多少一平方_网络整合营销的特点有_盐城seo优化

注销公司要花多少费用_深圳龙华区房价多少一平方_网络整合营销的特点有_盐城seo优化

2024/12/22 17:20:11 来源:https://blog.csdn.net/flurry_heart/article/details/144635627  浏览:    关键词:注销公司要花多少费用_深圳龙华区房价多少一平方_网络整合营销的特点有_盐城seo优化
注销公司要花多少费用_深圳龙华区房价多少一平方_网络整合营销的特点有_盐城seo优化

一、什么是进程

  进程(process)则是一个执行中的程序。每个进程都拥有自己的地址空间、内存、数据栈以及其它用于跟踪执行的辅助数据。操作系统管理其上所有进程的执行,并为这些进程合理分配时间。进程也可以通过派生新的进程来执行其它任务,不过因为每个新进程也都拥有自己的内存和数据栈等,所以只能采用进程间通信的方式共享数据;

二、进程的生命周期

  一个完整进程的生命周期中通常要经过如下的五种状态:

  • 创建:当一个 Process 类或及其子类的对象被声明并创建时,新生的进程就处于创建状态;
  • 就绪:处于新建的进程被 start() 后,将进入进程队列等待 CPU 时间片,此时它已具备了运行的条件,只是没分配到 CPU 资源;
  • 运行:当就绪的进程被调度并获得 CPU 资源时,便进入运行状态,run() 方法定义了进程的操作和功能;
  • 阻塞:在某种特殊情况下,被人为挂起或执行输入输出操作时,让出 CPU 并临时中止自己的执行,进入阻塞状态;
  • 退出:进程完成了它的全部或进程被提前强制性中止或出现异常导致结束;
    在这里插入图片描述

三、进程的创建

【1】、使用 multiprocessing 模块

  在 Python 中,我们可以使用 multiprocessing模块中的 Process 类创建一个对象。这个对象表示一个进程,但它不会真正创建出来一个进程。而当我们调用 start() 方法时,才会真正创建一个新的子进程,并开始执行的。

  至于这个进程去执行哪里的代码,要看在用 Process 创建对象的时候给 target 传递的是哪个函数的引用,即将来进程就会执行 target 参数指向的那个函数。target 指向的那个函数代码执行完之后,意味着这个子进程结束;

创建 Thread 对象时,target 参数指明进程将来去哪里执行代码,而 args 参数执行进程去执行代码时所携带的数据,并且 args 参数是一个元组。如果我们想给指定的参数传递数据,我们可以给 kwargs 参数传递一个字典。

import timefrom multiprocessing import Processdef task(name):print(f"{name}开始执行")time.sleep(3)print(f"{name}执行结束")"""
Window操作系统下,创建系统一定要在main内创建
因为Window系统下创建进程类似于模块的导入的方式,会从上往下依次执行代码Linux中则是直接将代码完成拷贝一份
"""
if __name__ == "__main__":# 1、实例化对象p1 = Process(target=task, args=("进程1",))p2 = Process(target=task, kwargs={"name": "进程2"})# 2、开启进程p1.start()                # 告诉操作系统帮你创建一个进程p2.start()print("主进程执行")

【2】、自定义类继承 Process

我们可以自定义一个类继承 Process,然后一定要实现它的 run() 方法,即定义一个 run() 方法,并且在方法中实现要执行的代码。当我们调用自己编写的类创建出来的对象的 start() 方法时,会创建新的进程,并且进程会自动调用 run() 方法开始执行。

如果除了 run() 方法之外还定义了很多其它的方法,那么这些方法需要在 run() 方法中自己去第调用,进程它不会自动调用。

import timefrom multiprocessing import Processclass MyProcess(Process):def __init__(self, name):super().__init__()self.name = namedef run(self):print(f"{self.name}开始执行")time.sleep(1)print(f"{self.name}执行结束")if __name__ == "__main__":p= MyProcess("进程1")p.start()print("主进程执行")

创建进程就是在内存中申请一块内存空间将需要运行的代码丢进去;一个进程对应在内存中就是一块独立的内存空间,多个进程对应在内存中就是多块独立的内存空间。默认情况下,进程与进程之间时无法直接交互的。如果想交互,可以借助第三方模块。

四、进程的常用属性和方法

multiprocessing.process.name                # 当前进程实例别名,默认为Process-N,N从1开始递增的整数
multiprocessing.process.pid                 # 当前进程实例的PID值
multiprocessing.process.start()             # 启动进程实例
multiprocessing.process.run()               # 如果没有给定target参数,对这个对象调用start()方法时,就会执行对象中的run()方法
multiprocessing.process.is_alive()          # 判断进程实例是否还在执行
multiprocessing.process.join([timeout])     # 是否等待进程实际执行结束,或等得多少秒
multiprocessing.process.terminate()         # 不管任务是否完成,立即终止
import timefrom multiprocessing import Process, current_processmoney = 100def task(n):print(f"{current_process().name }- {current_process().pid}")print(f"{current_process().name}开始执行")global moneymoney *= ntime.sleep(n)print(f"{current_process().name}的money: {money}")print(f"{current_process().name}执行结束")"""
Window操作系统下,创建系统一定要在main内创建
因为Window系统下创建进程类似于模块的导入的方式,会从上往下依次执行代码Linux中则是直接将代码完成拷贝一份
"""
if __name__ == "__main__":## 1、实例化对象p1 = Process(target=task, args=(1,))p2 = Process(target=task, args=(2,))p3 = Process(target=task, args=(3,))start_time = time.time()# 2、开启进程p1.start()                      # 告诉操作系统帮你创建一个进程p2.start()p3.start()p2.terminate()                  # 告诉操作系统,终止进程,但是需要一定的时间print(p2.is_alive())            # 获取进程状态# 主进程等待子进程运行结束之后在继续往后执行p3.join()print(f"{current_process().name} {time.time() - start_time}")print(f"{current_process().name} money: {money}")

五、僵尸进程与孤儿进程

  当你开设子进程之后,该进程死后不会立即释放占用的进程号。这是因为要让父进程能够查看它开设的子进程的一些基本信息,例如:占用的 pid 号、运行时间等;这种的进程称为 僵尸进程。所有的进程都会步入僵尸进程。

  孤儿进程 是指子进程存活,父进程意外死亡的进程。操作系统会开设一个特殊的空间专门管理孤儿进程回收相关资源。

六、守护进程

  被守护的进程结束之后,守护进程也会立即跟着结束。如果我们想把一个进程设置为守护进程,那么需要在调用 start() 方法前把 daemon 属性设置为 True。

import timefrom multiprocessing import Processdef task(name, n):print(f"{name}开始执行")time.sleep(n)print(f"{name}执行结束")"""
Window操作系统下,创建系统一定要在main内创建
因为Window系统下创建进程类似于模块的导入的方式,会从上往下依次执行代码Linux中则是直接将代码完成拷贝一份
"""
if __name__ == "__main__":p1 = Process(target=task, args=("守护进程1", 3), daemon=True)p2 = Process(target=task, args=("守护进程2", 3))                 # 1、实例化对象p2.daemon = True                                                # 2、将进程设置为守护进程p1.start()                                                      # 3、开启进程,告诉操作系统帮你创建一个进程p2.start()time.sleep(1)print("主进程执行")

七、进程互斥锁

  多个进程操作同一份数据时,可能会出现数据错乱的问题。针对上述问题,解决方式就是加锁处理:将并发变成串行,牺牲效率但保证了数据的安全。

import time
import jsonfrom multiprocessing import Process,Lockdef buy(name, mutex):# 加锁处理mutex.acquire()             # 抢锁# 先查剩余的票数with open("data.txt","r",encoding="utf-8") as f:ticket_dict = json.load(f)# 模拟网络延迟time.sleep(1)# 判断当前是否有票if ticket_dict.get("ticket_num") > 0:# 修改数据买票ticket_dict["ticket_num"] -= 1# 写入数据with open("data.txt","w",encoding="utf-8") as f:json.dump(ticket_dict,f)print(f"用户{name}买票成功")else:print(f"用户{name}买票失败")mutex.release()             # 释放锁 if __name__ == "__main__":# 在主进程中生成一把锁,让所有的进程程抢,谁先抢到谁先买票mutex = Lock()p1 = Process(target=buy, args=("Sakura",mutex))     # 1、实例化对象p1.start()                                          # 2、开启进程,告诉操作系统帮你创建一个进程p2 = Process(target=buy, args=("Mikoto",mutex))p2.start()p3 = Process(target=buy, args=("Shana",mutex))p3.start()

  【data.txt】文本内容如下:

{"ticket_num": 1}

锁应该只在处理数据的部分加锁保证数据安全;

八、进程间通信

  创建进程就是在内存中申请一块内存空间将需要运行的代码丢进去;一个进程对应在内存中就是一块独立的内存空间,多个进程对应在内存中就是多块独立的内存空间。默认情况下,进程与进程之间时无法直接交互的。如果想交互,可以借助第三方模块队列类实现。

  当创建一个子进程的时候,会复制父进程的很多东西(全局变量等)。子进程和主进程是单独的两个进程,当一个进程结束的时候,不会对其它进程产生影响。

import timefrom multiprocessing import Processnum = 100def task1():global numnum = 300print(f"task1中的num:{num}")def task2():print(f"task2中的num:{num}")"""
Window操作系统下,创建系统一定要在main内创建
因为Window系统下创建进程类似于模块的导入的方式,会从上往下依次执行代码Linux中则是直接将代码完成拷贝一份
"""
if __name__ == "__main__":p1 = Process(target=task1)p2 = Process(target=task2)# 先让p1线程执行p1.start()# 让主进程延迟1s,保证p1进程执行完之后,在执行p2进程time.sleep(1)# 让p2进程开始执行,看看获取的值是否是p1进程修改后的值p2.start()

  如果我们想让多个进程间共享数据,可以通过队列来实现。队列 (Queue)是具有一定约束的线性表,它只能在 一端插入入队 ,AddQ)而在 另一端删除出队 ,DeleteQ)。它具有 先进先出 (FIFO)的特性。,它的常用方法如下:

multiprocessing.Queue([maxsize])                            # 生成队列,最大可以存放maxsize数据量,默认值为32767
multiprocessing.Queue.qsize()                               # 返回当前队列包含的消息数量
multiprocessing.Queue.put(item, block=True, timeout=None)   # 向队列中存取数据,默认情况下,如果队列已满,还要放数据,程序会阻塞,直到有位置让出来,不会报错
multiprocessing.Queue.put_nowait(obj)                       # 向队列中存取数据,如果队列已满,还要放数据,程序会抛出异常
multiprocessing.Queue.get(block=True, timeout=None)         # 取队列中的数据,默认情况下,如果队列中没有数据,还要取数据,程序会阻塞,直到有新的数据到来,不会报错
multiprocessing.Queue.get_nowait()                          # 取队列中的数据,如果队列中没有数据,还要取数据,程序会抛出异常
multiprocessing.Queue.empty()                               # 如果队列为空,返回True,反之返回False
multiprocessing.Queue.full()                                # 如果队列满了,返回True,反之返回False
from multiprocessing import Queuenames = ["Sakura","Mikoto","Shana","Akame","Kurome"]q = Queue(3)print("向队列中存储数据")
i = 0
while not q.full():q.put(names[i])i += 1# 如果消息队列已满,如果还要向队列中存储数据,程序会阻塞或抛出异常
try:# 如果没有设置timeout,向已满队列存储数据会阻塞,直到有位置让出来# 如果设置timeout,则会等待timeout秒,如果在此期间还没有位置空出来,程序会抛出异常q.put(names[i],timeout=3)
except Exception:print("队列已满,现有消息数量:%s" % q.qsize())try:# 向已满队列存储数据会抛出异常q.put_nowait(names[i+1])
except Exception:print("队列已满,现有消息数量:%s" % q.qsize())print("从队列中读取数据")
while not q.empty():data = q.get()print(f"读取的数据为{data}")# 如果消息队列已空,如果还要从队列中读取数据,程序会阻塞或抛出异常
try:# 如果没有设置timeout,向已满队列存储数据会阻塞,直到有位置让出来# 如果设置timeout,则会等待timeout秒,如果在此期间还没有位置空出来,程序会抛出异常q.get(timeout=3)
except Exception:print("队列已空,现有消息数量:%s" % q.qsize())try:# 向已满队列存储数据会抛出异常q.get_nowait()
except Exception:print("队列已空,现有消息数量:%s" % q.qsize())

full()、empty()、get_nowait() 方法在多进程的情况下是不精确的;

【1】、主进程与子进程进行通信

from multiprocessing import Process,Queuedef task(q):print("子进程开始执行了!")q.put("hello world!")print("子进程执行结束了!")if __name__ == "__main__":q = Queue(3)p = Process(target=task,args=(q,))p.start()print(q.get())

【2】、子进程与子进程进行通信

from multiprocessing import Process,Queuedef produces(q):q.put("hello world!")def consumer(q):print(q.get())if __name__ == "__main__":q = Queue(3)p1 = Process(target=produces,args=(q,))p1.start()p2 = Process(target=consumer,args=(q,))p2.start()

九、进程池

9.1、进程池的使用

  池是用来保证计算机硬件安全的情况下最大限度的利用计算机,它降低了程序的运行效率,但是保证了计算机硬件的安全,从而让你写的程序能够正常运行。

  初始化 Pool 时,可以指定一个最大进程数,当有新的请求提交到 Pool 时,如果池还没有满,那么就会创建一个新的进程用来执行该请求。但是如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务。

import time
import osfrom multiprocessing import Pooldef task(num):print(f"pid: {os.getpid()}, num: {num}")time.sleep(1)return num * 100if __name__ == "__main__":# 括号内可以传数字指定进程数,不传的话,默认会开设当前计算机CPU个数的进程# 池子造出来后,会存在一定数量的进程,这些进程不会出现重复创建和销毁的过程pool = Pool()p_list= []# 池子的使用非常简单,只需要将需要做的任务往池子中提交即可for i in range(20):res = pool.apply_async(task, args=(i,))  # 朝池子中提交任务,异步提交p_list.append(res)# 等待进程池中所有的任务执行完毕之后再继续往下执行pool.close()                                 # 关闭进程池,等待进程中所有任务运行完毕pool.join()                                  # 主进程等待子进程全部执行完for p in p_list:   print(f"result: {p.get()}")              # 拿到异步提交的返回结果print("主线程执行了")
import time
import osfrom concurrent.futures import ProcessPoolExecutor# 括号内可以传数字指定进程数,不传的话,默认会开设当前计算机CPU个数的进程
# 池子造出来后,会存在一定数量的进程,这些进程不会出现重复创建和销毁的过程
pool = ProcessPoolExecutor(5)def task(num):print(f"pid: {os.getpid()}, num: {num}")time.sleep(1)return num * 100if __name__ == "__main__":p_list= []# 池子的使用非常简单,只需要将需要做的任务往池子中提交即可for i in range(20):res = pool.submit(task,i)           # 朝池子中提交任务,异步提交p_list.append(res)# 等待进程池中所有的任务执行完毕之后再继续往下执行pool.shutdown()                         # 关闭进程池,等待进程中所有任务运行完毕for p in p_list:   print(f"result: {p.result()}")      # 拿到异步提交的返回结果print("主线程执行了")

9.2、进程池间通信

  进程池间通信要使用 Manage 创建的 Queue 队列,不能直接使用普通的 Queue。

import time
import osfrom multiprocessing import Pool, Managerdef reader(q):print(f"reader启动({os.getpid()}),父进程({os.getppid()})")for i in range(q.qsize()):print(f"reader从Queue获取消息:{q.get()}")def write(q):print(f"write启动({os.getpid()}),父进程({os.getppid()})")for i in "Sakura":q.put(i)if __name__ == "__main__":# 括号内可以传数字指定进程数,不传的话,默认会开设当前计算机CPU个数的进程# 池子造出来后,会存在一定数量的进程,这些进程不会出现重复创建和销毁的过程pool = Pool()p_list= []q = Manager().Queue()print(f"main ({os.getpid()}) start!")# 池子的使用非常简单,只需要将需要做的任务往池子中提交即可pool.apply_async(write, args=(q,))      # 朝池子中提交任务,异步提交# 先让上面的任务向Queue存入数据,然后在让下面的任务从中读取数据time.sleep(1)pool.apply_async(reader, args=(q,))     # 朝池子中提交任务,异步提交# 等待进程池中所有的任务执行完毕之后再继续往下执行pool.close()                            # 关闭进程池,等待进程中所有任务运行完毕pool.join()                             # 主进程等待子进程全部执行完print(f"main ({os.getpid()}) end!")

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com