python自动加载项目路径 python自动加载模块_多进程

importlib 模块的作用

模块,是一个一个单独的py文件 包,里面包含多个模块(py文件)

动态导入模块,这样就不用写那么多的import代码, 典型的例子: 自动同步服务,每个网站都有一个py文件。主进程里收到同步任务,根据名称来动态导入对应的py文件,这样就不用写那么多的import代码。(有点类似java的工厂方法)

但是,importlib并不能解决我在线修改py源码,再不重启进程的情况下,使修改生效。 这种情况,可以使用reload()

reload方法

为防止两个模块互相导入的问题,Python默认所有的模块都只导入一次,如果需要重新导入模块, Python2.7可以直接用reload(),Python3可以用下面几种方法:

方法一:基本方法 from imp import reload reload(module)

方法二:按照套路,可以这样 import imp imp.reload(module)

方法三:看看imp.py,有发现,所以还可以这样 import importlib importlib.reload(module)

方法四:根据天理,当然也可以这样 from importlib import reload reload(module)

在多进程的 程序中,一个进程的reload是无法影响另一个进程的

例子:

# 在主进程中启动多进程
def begin():
""" 启动多进程 """
plist = []
for i in xrange(Num_process):
p = Process(target=pre_run)
p.start()
plist.append(p)
# 此进程监听redis消息,收到消息,即执行reload方法
p = Process(target=reload_spider)
p.start()
plist.append(p)
for p in plist:
p.join()
# 监听redis,执行reload方法
def reload_spider():
""" 监听文件变化,自动reload """
rconn = redis.Redis(host=settings.REDIS_HOST, port=settings.REDIS_PORT, db=settings.REDIS_DB, password=settings.REDIS_PW)
while True:
try:
key = 'reload-spider'
value = rconn.get(key)
print value
if value == '1':
crawler_module = importlib.import_module('crawlers.%s' % 'temp'.lower())
reload(crawler_module)
crawlerClass = getattr(crawler_module, 'temp'.upper())
print 'reload_spider 中的class: %s' % (crawlerClass.name)
# rconn.delete(key)
except Exception, e:
pass
time.sleep(3)
另一个进程打印py文件里面一个变量
crawler = get_crawler_from_factory(mq_service, message)
print crawler.name

结果发现,一个进程中进行了reload,并不能改变另外一个进程中的变量。那么在同一个进程中呢...

同一进程中,多线程,任一线程进行了reload操作,其他线程均受影响

def pre_run():
t = threading.Thread(target=reload_spider, name='LoopThread')
t.start()
# t.join()
""" 在每个进程里面再使用多线程 """
pool = ThreadPool(Num_Thread)
# 初始化mq通道
mq_service = RabbitMqService()
def callback(ch, method, properties, body):
# 消息确认
mq_service.input_channel.basic_ack(delivery_tag=method.delivery_tag)
# 获取当前线程的名字
current_process_name = multiprocessing.current_process().name
logger.debug('当前进程名称:%s - pid: %s' % (current_process_name, os.getpid()))
logger.debug('进程 %s,收到消息: %s' % (current_process_name, body))
# 收到任务消息,丢给线程池处理
pool.apply_async(run, (properties, body, mq_service))
# 开始监听入口通道
mq_service.receive(callback)
reload_spider中监听redi中的消息,如果有reload标识,进行reload操作
def reload_spider():
""" 监听文件变化,自动reload """
rconn = redis.Redis(host=settings.REDIS_HOST, port=settings.REDIS_PORT, db=settings.REDIS_DB, password=settings.REDIS_PW)
while True:
try:
key = 'reload-spider'
value = rconn.get(key)
print value
if value == '1':
crawler_module = importlib.import_module('crawlers.%s' % 'temp'.lower())
reload(crawler_module)
crawlerClass = getattr(crawler_module, 'temp'.upper())
print 'reload_spider 中的class: %s' % (crawlerClass.name)
# rconn.delete(key)
except Exception, e:
pass
time.sleep(3)

经测试,其他线程中的引入的变量,也改变了。

当然,消息监听最好使用mq或者是redis阻塞队列

以上这篇Python重新加载模块的实现方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。