范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

Python神器Celery源码阅读(4)

  本篇我们继续聊聊kombu这个python实现的消息库中的一些常用算法实现,和各种排序算法不一样,都是解决一些具体的业务问题,非常有用。本文包括下面几个部分:  LRU缓存淘汰算法  令牌桶限流算法  Round-Robin调度算法  LamportClock时间戳算法  LaxBoundedSemaphore有限信号量算法  LRU缓存淘汰算法
  缓存,顾名思义,就是将计算结果暂时存起来,以供后期使用,这样可以省去重复计算的工作。比如我们计算斐波那契数列的递归算法:  # 根据定义递归求解 def fib(n):     if n <= 1:          return n     return fib(n - 1) + fib(n - 2)
  我们求n为5的数,展开数学公式大概如下(这里简化python函数fib名称为数学函数f):  f(5)=f(4)                    +f(3)     =f(3)          +f(2)     +f(2)     +f(1)     =f(2)     +f(1)+f(1)+f(0)+f(1)+f(0)+f(1)     =f(1)+f(0)+f(1)+f(1)+f(0)+f(1)+f(0)+f(1)     =5
  根据数学公式,我们可以知道,在执行f(5)过程中,重复执行了5次f(1), 3次f(0)。要提高执行效率,就可以用到缓存。最简单的实现版本:  # 根据定义递归求解 cache = {} def fib_v1(n):     if n in cache:         return cache[n]     if n <= 1:          result = n     else:         result =  fib(n - 1) + fib(n - 2)     cache[n] = result     return result
  这种实现方式有2个弊端,一个是依赖一个外部的cache变量,另一个是cache功能和fib函数绑定,还需要修改fib函数。我们可以通过一个装饰器实现这个cache,而不用改动fib函数:  def cache_decorator(fun):     _cache = {}      def wrapper(*args, **kwargs):         if args in _cache:             return _cache[args]         else:             ret = fun(*args, **kwargs)             _cache[args] = ret             return ret      return wrapper
  使用的时候可以直接给fib函数添加上装饰器:  @cache_decorator def fib(n):     ...
  这种缓存实现实现方式,还是会有问题:无法进行清理,内存会持续增长。编程中有一句话是: 命名和缓存失效是计算机科学里面最难应对的两件事。关于缓存淘汰有各种算法,请见参考链接,我这里重点介绍一下LRU和LFU。  LRU(Least recently used)最早使用淘汰算法,核心特点是:   最早的数先淘汰  LFU(Least-frequently used)最少使用淘汰算法, 核心特点是:   最少的数先淘汰
  关于LRU,在我之前介绍tinydb时候有过介绍。其中的实现如下:  class LRUCache(abc.MutableMapping, Generic[K, V]):     def __init__(self, capacity=None):         self.capacity = capacity  # 缓存容量         self.cache = OrderedDict()  # 有序字典          def get(self, key: K, default: D = None) -> Optional[Union[V, D]]:         value = self.cache.get(key)  # 从换成获取         if value is not None:             del self.cache[key]             self.cache[key] = value  # 更新缓存顺序             return value         return default      def set(self, key: K, value: V):         if self.cache.get(key):             del self.cache[key]               self.cache[key] = value # 更新缓存顺序及值         else:             self.cache[key] = value             if self.capacity is not None and self.length > self.capacity:                 self.cache.popitem(last=False)  # 淘汰最古老的数据
  LRU的特点只要保持缓存数据是有序的, 我们甚至不需要自己实现,使用系统functools中的实现:  from functools import lru_cache  @lru_cache() def fib(n):     ...
  kombu中给我们提供了一个线程安全的版本, 主要实现:  # kombu-5.0.0/kombu/utils/functional.py  class LRUCache(UserDict):     """LRU Cache implementation using a doubly linked list to track access.     """     def __init__(self, limit=None):         self.limit = limit         self.mutex = threading.RLock()         self.data = OrderedDict()          def __getitem__(self, key):         with self.mutex:             value = self[key] = self.data.pop(key)             return value          def __setitem__(self, key, value):         # remove least recently used key.         with self.mutex:             if self.limit and len(self.data) >= self.limit:                 self.data.pop(next(iter(self.data)))             self.data[key] = value     ...
  上面代码在设置和获取数据时候都先获取锁,然后再进行数据操作。
  关于缓存使用,除了通过业务场景判断适用那种淘汰算法外,还可以使用具体的缓存命中率指标进行分析:  def memoize(maxsize=None, keyfun=None, Cache=LRUCache):     """Decorator to cache function return value."""     def _memoize(fun):         mutex = threading.Lock()         cache = Cache(limit=maxsize)          @wraps(fun)         def _M(*args, **kwargs):             if keyfun:                 key = keyfun(args, kwargs)             else:                 key = args + (KEYWORD_MARK,) + tuple(sorted(kwargs.items()))             try:                 with mutex:                     value = cache[key]             except KeyError:                 value = fun(*args, **kwargs)                 # 未命中需要执行函数                 _M.misses += 1                 with mutex:                     cache[key] = value             else:                 # 命中率增加                 _M.hits += 1             return value          def clear():             """Clear the cache and reset cache statistics."""             # 清理缓存及统计             cache.clear()             _M.hits = _M.misses = 0         # 统计信息         _M.hits = _M.misses = 0         _M.clear = clear         _M.original_func = fun         return _M      return _memoize
  memoize的实现并不复杂,增加了hits/misses数据,可以统计分析缓存的命中率,帮助正确使用LRU缓存。还添加了clear接口,可以在需要的时候对缓存直接进行清理。
  注意memoize使用了一个锁,在LRUCache还是使用了一个锁,这个锁的使用,我们以后再讲。  令牌桶限流算法
  限流是指在系统面临高并发、大流量请求的情况下,限制新的流量对系统的访问,从而保证系统服务的安全性。常用的限流算法有计数器、漏斗算法和令牌桶算法。其中计数器算法又分固定窗口算法、滑动窗口算法,后者我们在TCP协议中经常会碰到。
  算法中存在一个令牌桶,以恒定的速率向 令牌 桶中放入令牌。当请求来时,会首先到令牌桶中去拿令牌,如果拿到了令牌,则该请求会被处理,并消耗掉令牌;如果拿不到令牌,则该请求会被丢弃。当然令牌桶也有一定的 容量 ,如果满了令牌就无法放进去了,这样算法就有限流作用。
  又因为令牌产生的速率是很定的,如果消费速率较低,桶里会额外缓存一部分令牌,用于应对流量突发时候的消耗。下面是算法的示意图:
  Token bucket Diagram
  我们具体看看kombu中提供的实现。TokenBucket类: class TokenBucket:     #: The rate in tokens/second that the bucket will be refilled.     fill_rate = None      #: Maximum number of tokens in the bucket.     capacity = 1      #: Timestamp of the last time a token was taken out of the bucket.     timestamp = None      def __init__(self, fill_rate, capacity=1):         # 容量上限         self.capacity = float(capacity)         # 剩余令牌数,初始等于容量上限         self._tokens = capacity         # 填充率         self.fill_rate = float(fill_rate)         self.timestamp = monotonic()         # 数据容器         self.contents = deque()      def add(self, item):         self.contents.append(item)      def pop(self):         # 先进先出         return self.contents.popleft()
  代码包括: 令牌速率fill_rate  桶的容量上限  一个时间戳  剩余令牌数  算法提供了一个基于双端队列的数据容器,可以对容器进行先进先出操作
  令牌桶是否可用的判断: def can_consume(self, tokens=1):     """Check if one or more tokens can be consumed.      Returns:         bool: true if the number of tokens can be consumed             from the bucket.  If they can be consumed, a call will also             consume the requested number of tokens from the bucket.             Calls will only consume `tokens` (the number requested)             or zero tokens -- it will never consume a partial number             of tokens.     """     if tokens <= self._get_tokens():         # 消费n个令牌         self._tokens -= tokens         return True     return False  def _get_tokens(self):     if self._tokens < self.capacity:         # 记录当前时间         now = monotonic()         # 计算已经流失的令牌数量         delta = self.fill_rate * (now - self.timestamp)         # 更新容量上限或者剩余令牌和流失数量之和         self._tokens = min(self.capacity, self._tokens + delta)         self.timestamp = now     return self._tokens
  我们可以看到,算法在进行令牌消费判断的同时,还会对桶的剩余流量进行自校正,很巧妙。
  TokenBucket的使用在ConsumerMixin的run方法中。创建了一个速率为1的令牌桶,然后持续的进行消费。如果有令牌则消费消费者上的消息;如果没有令牌则进行休眠 #ch23-celery/kombu-5.0.0/kombu/mixins.py:240  class ConsumerMixin:      def run(self, _tokens=1, **kwargs):         restart_limit = TokenBucket(1)         ...         # 无限循环         while not self.should_stop:             try:                 # 有令牌消费                 if restart_limit.can_consume(_tokens):  # pragma: no cover                     for _ in self.consume(limit=None, **kwargs):                         pass                 else:                     # 没浪费休眠                     sleep(restart_limit.expected_time(_tokens))             except errors:                 ...
  其中的休眠时间,是由令牌桶根据期望值计算得来: def expected_time(self, tokens=1):     """Return estimated time of token availability.      Returns:         float: the time in seconds.     """     _tokens = self._get_tokens()     tokens = max(tokens, _tokens)     return (tokens - _tokens) / self.fill_rate Round-Robin调度算法
  Round-Robin调度算法,最常见的大概是在nginx。Round-Robin方式可让nginx将请求按顺序轮流地分配到后端服务器上,它均衡地对待后端的每一台服务器,而不关心服务器实际的连接数和当前的系统负载,循环往复。在kombu中也提供了几种类似的调度算法: 轮询调度  公平调度
  我们先看Round-Robin方式: class round_robin_cycle:     """Iterator that cycles between items in round-robin."""     """轮询调度算法"""      def __init__(self, it=None):         self.items = it if it is not None else []      def update(self, it):         """Update items from iterable."""         """更新列表"""         self.items[:] = it      def consume(self, n):         """Consume n items."""         """消费n个元素"""         return self.items[:n]      def rotate(self, last_used):         """Move most recently used item to end of list."""         """旋转:把最后一个元素放到列表某尾"""         items = self.items         try:             items.append(items.pop(items.index(last_used)))         except ValueError:             pass         return last_used
  算法实现很简单,就是一个有序队列,可以每次消费前n个有序元素,并且可以将最近使用的元素旋转到队尾。下面是旋转的单元测试: def test_round_robin_cycle():     it = cycle_by_name("round_robin")(["A", "B", "C"])     assert it.consume(3) == ["A", "B", "C"]     it.rotate("B")     assert it.consume(3) == ["A", "C", "B"]     it.rotate("A")     assert it.consume(3) == ["C", "B", "A"]     it.rotate("A")     assert it.consume(3) == ["C", "B", "A"]     it.rotate("C")     assert it.consume(3) == ["B", "A", "C"]
  还有一种公平循环的调度算法: class FairCycle:     """Cycle between resources.      Consume from a set of resources, where each resource gets     an equal chance to be consumed from.      Arguments:         fun (Callable): Callback to call.         resources (Sequence[Any]): List of resources.         predicate (type): Exception predicate.     """          def __init__(self, fun, resources, predicate=Exception):         self.fun = fun         self.resources = resources         self.predicate = predicate         #  初始位置         self.pos = 0
  FairCycle是一种资源之间公平循环的调度算法, 构造函数中: 利用资源的函数  多个资源的集合
  使用的方式是使用get方法传入回调: def _next(self):     while 1:         try:             resource = self.resources[self.pos]             # 位置加1             self.pos += 1             return resource         except IndexError:             # 到尾部后,重置位置             self.pos = 0             if not self.resources:                 raise self.predicate()  def get(self, callback, **kwargs):     """Get from next resource."""     # 无限重试     for tried in count(0):  # for infinity         # 获取资源         resource = self._next()         try:             # 利用资源             return self.fun(resource, callback, **kwargs)         except self.predicate:             # reraise when retries exchausted.             # 容错上限             if tried >= len(self.resources) - 1:                 raise
  调度主要体现再获取资源的next函数上,没次获取资源后位置标志进行后移,到尾部后在重置到0,继续下一轮循环。算法还可以对资源进行容错,也就是如果获取到的资源无法正常使用,还可以尝试使用下一个资源进行重试。 LamportClock算法
  兰波特时间戳算法(LamportClock),使用逻辑时间戳作为值的版本以允许跨服务器对值进行排序,是解决分布式系统时间一致的重要算法。
  服务器上的系统时间,使用物理的晶体振荡测量,会有不准的情况。我们会经常遇到服务器或者快或者慢的情况,一般使用NTP服务,来和互联网上的某个时间源进行同步。如果本地时间提前了,进行联网校时后,会出现本地时间倒退的问题。而对于两台不同的服务器上,要进行时间统一,就更不能使用系统时间。
  兰波特时间戳算法,原理如下: 维护一个数字来表示时间戳,并且在每个集群节点都维护一个 Lamport 时钟的实例。  如果事件在节点内发生,时间戳加1  事件要发送到远端,则在消息总带上时间戳  接收到远端的消息,时间戳 = Max(本地时间戳,消息中的时间戳) + 1(进行校正跳跃)
  这个过程,可以看下面的图示:
  从图中可以看到下面两点: 对于每个节点的事件时间,都是递增有序的,比如A是[4,5,7,10], B节点是[2,3,4,6,7], C节点是[1,5,6,8,9]  时间戳不是全局唯一,不同节点之间会存在序号重复,比如4号消息在A和B节点都存在,5号消息在A和C节点存在
  了解算法的场景和原理后,我们再来看算法的实现。 class LamportClock:     #: The clocks current value.     value = 0      def __init__(self, initial_value=0, Lock=Lock):         self.value = initial_value         self.mutex = Lock()      def adjust(self, other):         with self.mutex:             value = self.value = max(self.value, other) + 1             return value      def forward(self):         with self.mutex:             self.value += 1             return self.value
  算法的实现其实非常简单,就是转发的时候时间戳+1;收到消息后进行校正,这个过程中使用线程锁,保证本地的有序。 LaxBoundedSemaphore有限信号量算法
  前面讲的几种算法,都是基于线程锁实现。使用锁会降低效率,如果在协程中,可以使用无锁的方案,会更高效。kombu的LaxBoundedSemaphore实现,可以作为一种参考。
  我们先看使用示例:  >>> from future import print_statement as printf # ^ ignore: just fooling stupid pyflakes  >>> x = LaxBoundedSemaphore(2)  >>> x.acquire(printf, "HELLO 1") HELLO 1  >>> x.acquire(printf, "HELLO 2") HELLO 2  >>> x.acquire(printf, "HELLO 3") >>> x._waiters   # private, do not access directly [print, ("HELLO 3",)]  >>> x.release() HELLO 3
  示例展示了几步: 创建一个大小为2的LaxBoundedSemaphore信号量  申请信号,并且执行print函数,可以立即执行  继续申请信号执行print函数,也可以立即执行  再申请信号执行print函数,这时候由于信号超标,函数不会立即执行  手工释放信号量,最后一次申请的print函数自动执行
  下面是具体的实现,LaxBoundedSemaphore的构造函数: class LaxBoundedSemaphore:     def __init__(self, value):         # 信号容量         self.initial_value = self.value = value         # 使用双端队列,FIFO         self._waiting = deque()         self._add_waiter = self._waiting.append         self._pop_waiter = self._waiting.popleft
  申请执行回调函数,会进行信号判断,信号充足会执行行回调并消减一次信号量;信号量不足则将函数及参数放入代办的队列: def acquire(self, callback, *partial_args, **partial_kwargs):     """Acquire semaphore.      This will immediately apply ``callback`` if     the resource is available, otherwise the callback is suspended     until the semaphore is released.      Arguments:         callback (Callable): The callback to apply.         *partial_args (Any): partial arguments to callback.     """     value = self.value     if value <= 0:         # 容量不够的时候先暂存执行函数,并不更改可用数量         self._add_waiter((callback, partial_args, partial_kwargs))         return False     else:         # 可用数量-1         self.value = max(value - 1, 0)         # 直接执行函数         callback(*partial_args, **partial_kwargs)         return True
  使用release时候会取出头部的代办函数,并进行执行,此时信号量不增不减。如果代办全部执行完成后,则逐步恢复信号量到默认值: def release(self):     """Release semaphore.      Note:         If there are any waiters this will apply the first waiter         that is waiting for the resource (FIFO order).     """     try:         waiter, args, kwargs = self._pop_waiter()     except IndexError:         # 无缓存则只增加可用数量         self.value = min(self.value + 1, self.initial_value)     else:         # 有缓存则执行第一个缓存,可用数量不变还是小于0         waiter(*args, **kwargs) 小结
  本篇文章,我们学习了5种实用的业务算法。LRU缓存淘汰算法,可以对缓存中最早的数据进行淘汰。令牌桶限流算法,可以协助进行服务流量限流,较好的保护后端服务,避免突发流量的到时的崩溃。Round-Robin调度算法,可以进行负载的均衡,保障资源的平衡使用。LamportClock时间戳算法,可以在分布式系统中,进行不同服务之间的有序时间戳同步。LaxBoundedSemaphore有限信号量算法,是一种无锁算法,可高效的提供资源使用控制。 小技巧
  kombu中提供了一个自动重试算法,可以作为重试算法的模版: # kombu-5.0.0/kombu/utils/functional.py  def retry_over_time(fun, catch, args=None, kwargs=None, errback=None,                     max_retries=None, interval_start=2, interval_step=2,                     interval_max=30, callback=None, timeout=None):     kwargs = {} if not kwargs else kwargs     args = [] if not args else args     interval_range = fxrange(interval_start,                              interval_max + interval_start,                              interval_step, repeatlast=True)     # 超时时间     end = time() + timeout if timeout else None     for retries in count():         try:             return fun(*args, **kwargs)         except catch as exc:             # 超过次数             if max_retries is not None and retries >= max_retries:                 raise             # 超过时间             if end and time() > end:                 raise             ...             # 休眠             sleep(1.0)
  从模版可以看到重试时候使用次数和超时时间两个维度进行跳出(不可能无限重试): 使用count()进行无限循环  使用time()进行超时限定  使用max_retries容错上限次数限定  每次错误后,都休眠一段时间,给被调用方机会,提高下一次成功的概率。

奈飞走向爱奇艺爱奇艺与奈飞越发像了。据爱奇艺创始人龚宇撰文回忆,在IPO路演时,当他向西方投资者描述爱奇艺是中国奈飞时,所有人眼中透露着关注和兴奋。这就是套路的价值和力量。龚宇称。眼下,投资人不一加Ace正式发布天玑8100150W闪充!2499元起,你买么?4月21日,一加手机举办王牌登场快稳狠新品发布会,正式发布全新Ace系列,带来新系列首款产品一加Ace。一加Ace采用独家定制天玑8100MAX芯片,搭载HyperBoost游戏稳聊聊我对Linux发展史之浅见Windows系统目前还是在桌面办公领域占有率第一,但同时微软也是靠着Windows的研发和投入为主要获利的来源因为高昂的价格与版权等问题,Linux变成了越来越多人关注的对象,而Springboot集成MybatisID生成策略注解GeneratedValueGeneratedValue用于注解生成策略,内有strategy方法。默认情况下,spring会自动选择一个最适合底层数据库的主键生成策略我这里mysql对应自增长autoinc预售一举成名,6。2小时订单破万,奇瑞新款代步小车火了引言品牌需要针对市场,推出多样化的产品,也就意味着产品线的分布要更广。目前国内外知名的汽车品牌,在各价位段都拥有对应的车型。如今新能源汽车逐渐普及,各大厂商在品牌下均加入了纯电动车索尼Xperia大曝光7。2英寸大屏和6500mAh电池,这才是索尼我们都知道,索尼是一个工业设计非常出色的手机厂商,对于设计和研发很有经验,特别是其特立独行的产品设计理念,给市场带来了很多经典的产品,这些产品设计非常精良,也为索尼积累了很多的粉丝这些新机将搭载骁龙8Plus处理器,你更期待哪款呢?小芳一直以来强调的就是上半年,大家想要入手新机,最好是不要购买搭载了高通骁龙8的手机,不知道大家到底有没有听进去。说句实在话,上半年凡是搭载了高通骁龙8芯片的手机在机身发热问题上并手机密码忘记了怎么解锁?不用花钱去刷机,按2个键10秒就搞定在日常生活中,使用手机的时候,不管你用的是安卓手机的华为,小米,oppo,还是苹果手机,相信大家都和我一样都遇到过这样的情况,那就是手机的解锁密码忘记了,下面告诉大家一个方法,不用iPhoneSE3亮相,延续刘海屏,回归一体单摄机身,3月份发布苹果这些年都在挤牙膏,这是有目共睹的,从开启了全面屏时代后,安卓手机阵营一次次大改全面屏设计,现在终于走到了屏下摄像头,而苹果则是在刘海屏的标准下不断打磨,突破性不大,很多果粉都审B站up电影解说视频用什么录音好?解说视频少不了硬件与软件的配合,但别忘了创作的核心是内容想要录音好,2个方向去解决在软件上,电脑软件的音频处理,要优于手机软件,所以想要录音好,电脑处理必不可少硬件上,根据预算选择商务部原副部长魏建国阿里中国数字商业板块11大于2近日,商务部原副部长中国国际经济交流中心副理事长魏建国发表文章指出,疫情之后,中国消费必将走向实体店和网购互融互补之路。商务部发改委教育部工信部等22个部委印发的十四五国内贸易发展
都是因为懒,一位资深理工男与洗碗机的爱恨情仇我原是一只自由自在,放荡不羁的单身狗,穿行在这座钢铁丛林城市之中,饿了邀约三两只狗一起下馆子,或者点外卖,一狗吃饱,每日撒欢。后来一招不慎,沦为家庭煮夫,好在厨艺尚可,尚能吃。然而滴滴的大数据真的是归滴滴所有么?滴滴公司低调海外上市,引发全社会关注,其核心关注点之一便是滴滴是否将大数据出卖给了海外。众所周知,一个东西要拿去卖,首先你要拥有这个东西的所有权,这是根本的前提。因此,本文要讨论的手撕枕边人比起郎咸平,吴亦凡只能算个小弟弟都是手撕枕边人,郎咸平只是要钱,吴亦凡要的却是人无千日好,花无百日红。本以为只是成年人之间你情我愿的欢娱,当激情褪去,剩下的只是赤裸裸的利益。顶流明星和年轻女网红,经济学家和貌美空从扶贫攻坚到乡村振兴,千千万万雷金玉们的辛酸责任与荣耀落岭过少上岭多,担柴挟竹腰背驼,忖要发财投无路,歌是眼泪泪是歌一曲古老的山歌唱出了老区山民的苦日子,也唱出了老区人对富裕生活的向往。山连着山,环山而行,一个村和另一个村间隔着几座大东方大秦对战西方罗马,孰强孰弱岂曰无衣?与子同袍。王于兴师,修我戈矛一首秦风无衣唱出了秦帝国军人风貌。永恒罗马,我永远的家,无论敌船多强,我们从不害怕一曲军歌唱出了古罗马军人的勇气。当东方大秦对战西方罗马,孰强如何实现作为一名专业交易员的职业目标?要创建一条成功的交易之路,需要一个清晰的交易思路,一个合理可实现的交易目标。因为以目标为导向的思维方式才能逐渐提高交易的专注力,建立内在动力和交易纪律,同时能增加成功的动力。在活跃商品大王罗杰斯一生最惨熊市快要到来,美国金融将遭重创罗杰斯美国著名投资人素有商品大王之称的罗杰斯(JimRogers)曾多次警告美国是世界上最大的债务国,债务无处不在,迟早将为此付出代价,近期更大胆预测,全世界将经历一场大规模的经济神预言40年后,比特币价格将突破600万美元正值中国全面封杀虚拟货币交易之际,比特币基金组织主科学家安加文德烈森(GavinAndresen)刚作出了一个超级超级大胆的预测。他认为比特币的价格可能有朝一日突破600万美元,他意大利传奇门将世界冠军詹路易吉布冯正式签约成为TMGM品牌大使摘要2021年9月21日全球领先的差价合约经纪商TMGM正式揭晓其品牌大使,携手EntourageSportsandEntertainment签约意大利传奇门将世界冠军詹路易吉布冯这是一个胜率接近80的交易系统!请免费领取试用交易中,你是否也碰过这样的瓶颈,明明学习与运用技术分析交易多年,但却总是不赚钱甚至亏钱,这其实不能怪罪于工具,问题很可能是出在你忘了对交易工具进行优化升级。工欲善其事,必先利其器。学前班第27课外币与股票交易的不同之处在纽约证券交易所大约有2800多只上市股票。另外3300多只在纳斯达克上市。你打算交易哪一只股票呢?现货外汇交易的货币有几十种,但多数的市场参与者主要关注并交易七种主要货币对。相比