You are on page 1of 54

Algorithms and Architectures for

Parallel Processing 18th International


Conference ICA3PP 2018 Guangzhou
China November 15 17 2018
Proceedings Part IV Jaideep Vaidya
Visit to download the full and correct content document:
https://textbookfull.com/product/algorithms-and-architectures-for-parallel-processing-1
8th-international-conference-ica3pp-2018-guangzhou-china-november-15-17-2018-pr
oceedings-part-iv-jaideep-vaidya/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

Algorithms and Architectures for Parallel Processing


18th International Conference ICA3PP 2018 Guangzhou
China November 15 17 2018 Proceedings Part I Jaideep
Vaidya
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-18th-international-conference-
ica3pp-2018-guangzhou-china-november-15-17-2018-proceedings-part-
i-jaideep-vaidya/

Algorithms and Architectures for Parallel Processing


18th International Conference ICA3PP 2018 Guangzhou
China November 15 17 2018 Proceedings Part III Jaideep
Vaidya
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-18th-international-conference-
ica3pp-2018-guangzhou-china-november-15-17-2018-proceedings-part-
iii-jaideep-vaidya/

Algorithms and Architectures for Parallel Processing


ICA3PP 2018 International Workshops Guangzhou China
November 15 17 2018 Proceedings Ting Hu

https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-ica3pp-2018-international-workshops-
guangzhou-china-november-15-17-2018-proceedings-ting-hu/

Algorithms and Architectures for Parallel Processing


14th International Conference ICA3PP 2014 Dalian China
August 24 27 2014 Proceedings Part II 1st Edition Xian-
He Sun
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-14th-international-conference-
ica3pp-2014-dalian-china-august-24-27-2014-proceedings-part-
Algorithms and Architectures for Parallel Processing
14th International Conference ICA3PP 2014 Dalian China
August 24 27 2014 Proceedings Part I 1st Edition Xian-
He Sun
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-14th-international-conference-
ica3pp-2014-dalian-china-august-24-27-2014-proceedings-
part-i-1st-edition-xian-he-sun/

Pattern Recognition and Computer Vision First Chinese


Conference PRCV 2018 Guangzhou China November 23 26
2018 Proceedings Part IV Jian-Huang Lai

https://textbookfull.com/product/pattern-recognition-and-
computer-vision-first-chinese-conference-prcv-2018-guangzhou-
china-november-23-26-2018-proceedings-part-iv-jian-huang-lai/

Algorithms and Architectures for Parallel Processing


20th International Conference ICA3PP 2020 New York City
NY USA October 2 4 2020 Proceedings Part III Meikang
Qiu
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-20th-international-conference-
ica3pp-2020-new-york-city-ny-usa-october-2-4-2020-proceedings-
part-iii-meikang-qiu/

Algorithms and Architectures for Parallel Processing


13th International Conference ICA3PP 2013 Vietri sul
Mare Italy December 18 20 2013 Proceedings Part I 1st
Edition Antonio Balzanella
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-13th-international-conference-
ica3pp-2013-vietri-sul-mare-italy-
december-18-20-2013-proceedings-part-i-1st-edition-antonio-
balzanella/
Algorithms and Architectures for Parallel Processing
13th International Conference ICA3PP 2013 Vietri sul
Mare Italy December 18 20 2013 Proceedings Part II 1st
Edition Peter Benner
https://textbookfull.com/product/algorithms-and-architectures-
for-parallel-processing-13th-international-conference-
ica3pp-2013-vietri-sul-mare-italy-
Jaideep Vaidya
Jin Li (Eds.)
LNCS 11337

Algorithms and Architectures


for Parallel Processing
18th International Conference, ICA3PP 2018
Guangzhou, China, November 15–17, 2018
Proceedings, Part IV

123
Lecture Notes in Computer Science 11337
Commenced Publication in 1973
Founding and Former Series Editors:
Gerhard Goos, Juris Hartmanis, and Jan van Leeuwen

Editorial Board
David Hutchison
Lancaster University, Lancaster, UK
Takeo Kanade
Carnegie Mellon University, Pittsburgh, PA, USA
Josef Kittler
University of Surrey, Guildford, UK
Jon M. Kleinberg
Cornell University, Ithaca, NY, USA
Friedemann Mattern
ETH Zurich, Zurich, Switzerland
John C. Mitchell
Stanford University, Stanford, CA, USA
Moni Naor
Weizmann Institute of Science, Rehovot, Israel
C. Pandu Rangan
Indian Institute of Technology Madras, Chennai, India
Bernhard Steffen
TU Dortmund University, Dortmund, Germany
Demetri Terzopoulos
University of California, Los Angeles, CA, USA
Doug Tygar
University of California, Berkeley, CA, USA
Gerhard Weikum
Max Planck Institute for Informatics, Saarbrücken, Germany
More information about this series at http://www.springer.com/series/7407
Jaideep Vaidya Jin Li (Eds.)

Algorithms and Architectures


for Parallel Processing
18th International Conference, ICA3PP 2018
Guangzhou, China, November 15–17, 2018
Proceedings, Part IV

123
Editors
Jaideep Vaidya Jin Li
Rutgers University Guangzhou University
Newark, NJ, USA Guangzhou, China

ISSN 0302-9743 ISSN 1611-3349 (electronic)


Lecture Notes in Computer Science
ISBN 978-3-030-05062-7 ISBN 978-3-030-05063-4 (eBook)
https://doi.org/10.1007/978-3-030-05063-4

Library of Congress Control Number: 2018962485

LNCS Sublibrary: SL1 – Theoretical Computer Science and General Issues

© Springer Nature Switzerland AG 2018


This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part of the
material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation,
broadcasting, reproduction on microfilms or in any other physical way, and transmission or information
storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology now
known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this publication
does not imply, even in the absence of a specific statement, that such names are exempt from the relevant
protective laws and regulations and therefore free for general use.
The publisher, the authors, and the editors are safe to assume that the advice and information in this book are
believed to be true and accurate at the date of publication. Neither the publisher nor the authors or the editors
give a warranty, express or implied, with respect to the material contained herein or for any errors or
omissions that may have been made. The publisher remains neutral with regard to jurisdictional claims in
published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland
Preface

Welcome to the proceedings of the 18th International Conference on Algorithms and


Architectures for Parallel Processing (ICA3PP 2018), which was organized by
Guangzhou University and held in Guangzhou, China, during November 15–17, 2018.
ICA3PP 2018 was the 18th event in a series of conferences devoted to research on
algorithms and architectures for parallel processing. Previous iterations of the confer-
ence include ICA3PP 2017 (Helsinki, Finland, November 2017), ICA3PP 2016
(Granada, Spain, December 2016), ICA3PP 2015 (Zhangjiajie, China, November
2015), ICA3PP 2014 (Dalian, China, August 2014), ICA3PP 2013 (Vietri sul Mare,
Italy, December 2013), ICA3PP 2012 (Fukuoka, Japan, September 2012), ICA3PP
2011 (Melbourne, Australia, October 2011), ICA3PP 2010 (Busan, Korea, May 2010),
ICA3PP 2009 (Taipei, Taiwan, June 2009), ICA3PP 2008 (Cyprus, June 2008),
ICA3PP 2007 (Hangzhou, China, June 2007), ICA3PP 2005 (Melbourne, Australia,
October 2005), ICA3PP 2002 (Beijing, China, October 2002), ICA3PP 2000 (Hong
Kong, China, December 2000), ICA3PP 1997 (Melbourne, Australia, December 1997),
ICA3PP 1996 (Singapore, June 1996), and ICA3PP 1995 (Brisbane, Australia, April
1995).
ICA3PP is now recognized as the main regular event in the area of parallel algo-
rithms and architectures, which covers many dimensions including fundamental the-
oretical approaches, practical experimental projects, and commercial and industry
applications. This conference provides a forum for academics and practitioners from
countries and regions around the world to exchange ideas for improving the efficiency,
performance, reliability, security, and interoperability of computing systems and
applications.
ICA3PP 2018 attracted over 400 high-quality research papers highlighting the
foundational work that strives to push beyond the limits of existing technologies,
including experimental efforts, innovative systems, and investigations that identify
weaknesses in existing parallel processing technology. Each submission was reviewed
by at least two experts in the relevant areas, on the basis of their significance, novelty,
technical quality, presentation, and practical impact. According to the review results,
141 full papers were selected to be presented at the conference, giving an acceptance
rate of 35%. Besides, we also accepted 50 short papers and 24 workshop papers. In
addition to the paper presentations, the program of the conference included four key-
note speeches and two invited talks from esteemed scholars in the area, namely: Prof.
Xuemin (Sherman) Shen, University of Waterloo, Canada; Prof. Wenjing Lou, Virginia
Tech, USA; Prof. Witold Pedrycz, University of Alberta, Canada; Prof. Xiaohua Jia,
City University of Hong Kong, Hong Kong; Prof. Xiaofeng Chen, Xidian University,
China; Prof. Xinyi Huang, Fujian Normal University, China. We were extremely
honored to have them as the conference keynote speakers and invited speakers.
ICA3PP 2018 was made possible by the behind-the-scene effort of selfless indi-
viduals and organizations who volunteered their time and energy to ensure the success
VI Preface

of this conference. We would like to express our special appreciation to Prof. Yang
Xiang, Prof. Weijia Jia, Prof. Yi Pan, Prof. Laurence T. Yang, and Prof. Wanlei Zhou,
the Steering Committee members, for giving us the opportunity to host this prestigious
conference and for their guidance with the conference organization. We would like to
emphasize our gratitude to the general chairs, Prof. Albert Zomaya and Prof. Minyi
Guo, for their outstanding support in organizing the event. Thanks also to the publicity
chairs, Prof. Zheli Liu and Dr Weizhi Meng, for the great job in publicizing this event.
We would like to give our thanks to all the members of the Organizing Committee and
Program Committee for their efforts and support.
The ICA3PP 2018 program included two workshops, namely, the ICA3PP 2018
Workshop on Intelligent Algorithms for Large-Scale Complex Optimization Problems
and the ICA3PP 2018 Workshop on Security and Privacy in Data Processing. We
would like to express our sincere appreciation to the workshop chairs: Prof. Ting Hu,
Prof. Feng Wang, Prof. Hongwei Li and Prof. Qian Wang.
Last but not least, we would like to thank all the contributing authors and all
conference attendees, as well as the great team at Springer that assisted in producing the
conference proceedings, and the developers and maintainers of EasyChair.

November 2018 Jaideep Vaidya


Jin Li
Organization

General Chairs
Albert Zomaya University of Sydney, Australia
Minyi Guo Shanghai Jiao Tong University, China

Program Chairs
Jaideep Vaidya Rutgers University, USA
Jin Li Guangzhou University, China

Publication Chair
Yu Wang Guangzhou University, China

Publicity Chairs
Zheli Liu Nankai University, China
Weizhi Meng Technical University of Denmark, Denmark

Steering Committee
Yang Xiang (Chair) Swinburne University of Technology, Australia
Weijia Jia Shanghai Jiaotong University, China
Yi Pan Georgia State University, USA
Laurence T. Yang St. Francis Xavier University, Canada
Wanlei Zhou Deakin University, Australia

Program Committee
Pedro Alonso Universitat Politècnica de València, Spain
Daniel Andresen Kansas State University, USA
Cosimo Anglano Universitá del Piemonte Orientale, Italy
Danilo Ardagna Politecnico di Milano, Italy
Kapil Arya Northeastern University, USA
Marcos Assuncao Inria, France
Joonsang Baek University of Wollongong, Australia
Anirban Basu KDDI Research Inc., Japan
Ladjel Bellatreche LIAS/ENSMA, France
Jorge Bernal Bernabe University of Murcia, Spain
Thomas Boenisch High-Performance Computing Center Stuttgart,
Germany
VIII Organization

George Bosilca University of Tennessee, USA


Massimo Cafaro University of Salento, Italy
Philip Carns Argonne National Laboratory, USA
Alexandra Carpen-Amarie Vienna University of Technology, Austria
Aparicio Carranza City University of New York, USA
Aniello Castiglione University of Salerno, Italy
Arcangelo Castiglione University of Salerno, Italy
Pedro Castillo University of Granada, Spain
Tzung-Shi Chen National University of Tainan, Taiwan
Kim-Kwang Raymond The University of Texas at San Antonio, USA
Choo
Mauro Conti University of Padua, Italy
Jose Alfredo Ferreira Costa Federal University, UFRN, Brazil
Raphaël Couturier University Bourgogne Franche-Comté, France
Miguel Cárdenas Montes CIEMAT, Spain
Masoud Daneshtalab Mälardalen University and Royal Institute
of Technology, Sweden
Casimer Decusatis Marist College, USA
Eugen Dedu University of Bourgogne Franche-Comté, France
Juan-Carlos Díaz-Martín University of Extremadura, Spain
Matthieu Dorier Argonne National Laboratory, USA
Avgoustinos Filippoupolitis University of Greenwich, UK
Ugo Fiore Federico II University, Italy
Franco Frattolillo University of Sannio, Italy
Marc Frincu West University of Timisoara, Romania
Jorge G. Barbosa University of Porto, Portugal
Chongzhi Gao Guangzhou University, China
Jose Daniel García University Carlos III of Madrid, Spain
Luis Javier García Villalba Universidad Complutense de Madrid, Spain
Paolo Gasti New York Institute of Technology, USA
Vladimir Getov University of Westminster, UK
Olivier Gluck Université de Lyon, France
Jing Gong KTH Royal Institute of Technology, Sweden
Amina Guermouche Telecom Sud-Paris, France
Jeff Hammond Intel, USA
Feng Hao Newcastle University, UK
Houcine Hassan Universitat Politècnica de València, Spain
Sun-Yuan Hsieh National Cheng Kung University, Taiwan
Chengyu Hu Shandong University, China
Xinyi Huang Fujian Normal University, China
Mauro Iacono University of Campania Luigi Vanvitelli, Italy
Shadi Ibrahim Inria, France
Yasuaki Ito Hiroshima University, Japan
Mathias Jacquelin Lawrence Berkeley National Laboratory, USA
Nan Jiang East China Jiaotong University, China
Lu Jiaxin Jiangxi Normal University, China
Organization IX

Edward Jung Kennesaw State University, USA


Georgios Kambourakis University of the Aegean, Greece
Gabor Kecskemeti Liverpool John Moores University, UK
Muhammad Khurram Khan King Saud University, Saudi Arabia
Dieter Kranzlmüller Ludwig Maximilian University of Munich, Germany
Michael Kuhn University of Hamburg, Germany
Julian Kunkel German Climate Computing Center, Germany
Algirdas Lančinskas Vilnius University, Lithuania
Patrick P. C. Lee The Chinese University of Hong Kong, SAR China
Laurent Lefevre Inria, France
Hui Li University of Electronic Science and Technology
of China, China
Kenli Li Hunan University, China
Dan Liao University of Electronic Science and Technology
of China, China
Jingyu Liu Hebei University of Technology, China
Joseph Liu Monash University, Australia
Yunan Liu Jiangxi Normal University, China
Zheli Liu Nankai University, China
Jay Lofstead Sandia National Laboratories, USA
Paul Lu University of Alberta, Canada
Amit Majumdar University of California San Diego, USA
Tomas Margalef Universitat Autonoma de Barcelona, Spain
Stefano Markidis KTH Royal Institute of Technology, Sweden
Alejandro Masrur Chemnitz University of Technology, Germany
Susumu Matsumae Saga University, Japan
Raffaele Montella University of Naples Parthenope, Italy
Francesco Moscato University of Campania Luigi Vanvitelli, Italy
Bogdan Nicolae Argonne National Laboratory, Germany
Francesco Palmieri University of Salerno, Italy, Italy
Swann Perarnau Argonne National Laboratory, USA
Dana Petcu West University of Timisoara, Romania
Salvador Petit Universitat Politècnica de València, Spain
Riccardo Petrolo Rice University, USA
Florin Pop University Politehnica of Bucharest, Romania
Radu Prodan University of Klagenfurt, Austria
Zhang Qikun Beijing Institute of Technology, China
Thomas Rauber University Bayreuth, Germany
Khaled Riad Zagazig University, Egypt
Suzanne Rivoire Sonoma State University, USA
Ivan Rodero Rutgers University, USA
Romain Rouvoy University of Lille, France
Antonio Ruiz-Martínez University of Murcia, Spain
Françoise Sailhan CNAM, France
Sherif Sakr The University of New South Wales, Australia
Giandomenico Spezzano ICAR-CNR and University of Calabria, Italy
X Organization

Patricia Stolf IRIT, France


John Stone University of Illinois at Urbana-Champaign, USA
Peter Strazdins The Australian National University, Australia
Hari Subramoni The Ohio State University, USA
Gang Sun University of Science and Technology of China, China
Zhizhuo Sun Beijing Institute of Technology, China
Frederic Suter CNRS, France
Yu-An Tan Beijing Institute of Technology, China
Ming Tao Dongguan University of Technology, China
Andrei Tchernykh CICESE Research Center, Mexico
Massimo Torquati University of Pisa, Italy
Tomoaki Tsumura Nagoya Institute of Technology, Japan
Didem Unat Koç University, Turkey
Vladimir Voevodin Moscow University, Russia
Feng Wang Wuhan University, China
Hao Wang Shandong Normal University, China
Yu Wei Nankai University, China
Sheng Wen Swinbourne University of Technology, China
Jigang Wu Guangdong University of Technology, China
Roman Wyrzykowski Czestochowa University of Technology, Poland
Yu Xiao Shandong University of Technology, China
Ramin Yahyapour University of Göttingen, Germany
Fang Yan Beijing Wuzi University, China
Zheng Yan Xidian University, China
Laurence T. Yang St. Francis Xavier University, Canada
Wun-She Yap Universiti Tunku Abdul Rahman, Malaysia
Contents – Part IV

Internet of Things and Cloud Computing

Dynamic Task Scheduler for Real Time Requirement in Cloud


Computing System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Yujie Huang, Quan Zhang, Yujie Cai, Minge Jing, Yibo Fan,
and Xiaoyang Zeng

CGAN Based Cloud Computing Server Power Curve Generating . . . . . . . . . 12


Longchuan Yan, Wantao Liu, Yin Liu, and Songlin Hu

One-Sided Communication in Coarray Fortran: Performance


Tests on TH-1A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Peiming Guo and Jianping Wu

Reliable Content Delivery in Lossy Named Data Networks Based


on Network Coding. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Rui Xu, Hui Li, and Huayu Zhang

Verifying CTL with Unfoldings of Petri Nets . . . . . . . . . . . . . . . . . . . . . . . 47


Lanlan Dong, Guanjun Liu, and Dongming Xiang

Deep Q-Learning for Navigation of Robotic Arm for Tokamak Inspection . . . 62


Swati Jain, Priyanka Sharma, Jaina Bhoiwala, Sarthak Gupta,
Pramit Dutta, Krishan Kumar Gotewal, Naveen Rastogi,
and Daniel Raju

The Design and Implementation of Random Linear Network Coding


Based Distributed Storage System in Dynamic Networks . . . . . . . . . . . . . . . 72
Bin He, Jin Wang, Jingya Zhou, Kejie Lu, Lingzhi Li, and Shukui Zhang

Security and Privacy in Computing

Forward Secure Searchable Encryption Using Key-Based Blocks


Chain Technique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Siyi Lv, Yanyu Huang, Bo Li, Yu Wei, Zheli Liu, Joseph K. Liu,
and Dong Hoon Lee

Harden Tamper-Proofing to Combat MATE Attack . . . . . . . . . . . . . . . . . . . 98


Zhe Chen, Chunfu Jia, Tongtong Lv, and Tong Li
XII Contents – Part IV

A Fast and Effective Detection of Mobile Malware Behavior


Using Network Traffic. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Anran Liu, Zhenxiang Chen, Shanshan Wang, Lizhi Peng, Chuan Zhao,
and Yuliang Shi

A Scalable Pthreads-Compatible Thread Model


for VM-Intensive Programs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Yu Zhang and Jiankang Chen

Efficient and Privacy-Preserving Query on Outsourced Spherical Data . . . . . . 138


Yueyue Zhou, Tao Xiang, and Xiaoguo Li

Detecting Advanced Persistent Threats Based on Entropy


and Support Vector Machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Jiayu Tan and Jian Wang

MulAV: Multilevel and Explainable Detection of Android Malware


with Data Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Qun Li, Zhenxiang Chen, Qiben Yan, Shanshan Wang, Kun Ma,
Yuliang Shi, and Lizhen Cui

Identifying Bitcoin Users Using Deep Neural Network . . . . . . . . . . . . . . . . 178


Wei Shao, Hang Li, Mengqi Chen, Chunfu Jia, Chunbo Liu,
and Zhi Wang

A Practical Privacy-Preserving Face Authentication Scheme with


Revocability and Reusability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Jing Lei, Qingqi Pei, Xuefeng Liu, and Wenhai Sun

Differentially Private Location Protection with Continuous Time Stamps


for VANETs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
Zhili Chen, Xianyue Bao, Zuobin Ying, Ximeng Liu, and Hong Zhong

Fine-Grained Attribute-Based Encryption Scheme


Supporting Equality Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Nabeil Eltayieb, Rashad Elhabob, Alzubair Hassan, and Fagen Li

Detecting Evil-Twin Attack with the Crowd Sensing of Landmark


in Physical Layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Chundong Wang, Likun Zhu, Liangyi Gong, Zheli Liu, Xiuliang Mo,
Wenjun Yang, Min Li, and Zhaoyang Li

Security Extension and Robust Upgrade of Smart-Watch Wi-Fi


Controller Firmware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
Wencong Han, Quanxin Zhang, Chongzhi Gao, Jingjing Hu,
and Fang Yan
Contents – Part IV XIII

A Java Code Protection Scheme via Dynamic Recovering


Runtime Instructions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Sun Jiajia, Gao Jinbao, Tan Yu-an, Zhang Yu, and Yu Xiao

Verifiable Outsourced Computation with Full Delegation . . . . . . . . . . . . . . . 270


Qiang Wang, Fucai Zhou, Su Peng, and Zifeng Xu

Keyword Searchable Encryption with Fine-Grained Forward


Secrecy for Internet of Thing Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
Rang Zhou, Xiaosong Zhang, Xiaofen Wang, Guowu Yang,
and Wanpeng Li

IoT-SDNPP: A Method for Privacy-Preserving in Smart City with Software


Defined Networking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
Mehdi Gheisari, Guojun Wang, Shuhong Chen,
and Hamidreza Ghorbani

User Password Intelligence Enhancement by Dynamic Generation


Based on Markov Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Zhendong Wu and Yihang Xia

The BLE Fingerprint Map Fast Construction Method


for Indoor Localization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
Haojun Ai, Weiyi Huang, Yuhong Yang, and Liang Liao

VISU: A Simple and Efficient Cache Coherence Protocol


Based on Self-updating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
Ximing He, Sheng Ma, Wenjie Liu, Sijiang Fan, Libo Huang,
Zhiying Wang, and Zhanyong Zhou

PPLDEM: A Fast Anomaly Detection Algorithm with Privacy Preserving . . . 358


Ao Yin, Chunkai Zhang, Zoe L. Jiang, Yulin Wu, Xing Zhang,
Keli Zhang, and Xuan Wang

Towards Secure Cloud Data Similarity Retrieval: Privacy Preserving


Near-Duplicate Image Data Detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
Yulin Wu, Xuan Wang, Zoe L. Jiang, Xuan Li, Jin Li, S. M. Yiu,
Zechao Liu, Hainan Zhao, and Chunkai Zhang

An Efficient Multi-keyword Searchable Encryption Supporting


Multi-user Access Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
Chuxin Wu, Peng Zhang, Hongwei Liu, Zehong Chen, and Zoe L. Jiang

Android Malware Detection Using Category-Based Permission Vectors . . . . . 399


Xu Li, Guojun Wang, Saqib Ali, and QiLin He
XIV Contents – Part IV

Outsourced Privacy Preserving SVM with Multiple Keys . . . . . . . . . . . . . . . 415


Wenli Sun, Zoe L. Jiang, Jun Zhang, S. M. Yiu, Yulin Wu, Hainan Zhao,
Xuan Wang, and Peng Zhang

Privacy-Preserving Task Allocation for Edge Computing Enhanced


Mobile Crowdsensing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
Yujia Hu, Hang Shen, Guangwei Bai, and Tianjing Wang

Efficient Two-Party Privacy Preserving Collaborative k-means Clustering


Protocol Supporting both Storage and Computation Outsourcing . . . . . . . . . . 447
Zoe L. Jiang, Ning Guo, Yabin Jin, Jiazhuo Lv, Yulin Wu, Yating Yu,
Xuan Wang, S. M. Yiu, and Junbin Fang

Identity-Based Proofs of Storage with Enhanced Privacy . . . . . . . . . . . . . . . 461


Miaomiao Tian, Shibei Ye, Hong Zhong, Lingyan Wang,
Fei Chen, and Jie Cui

Evaluating the Impact of Intrusion Sensitivity on Securing Collaborative


Intrusion Detection Networks Against SOOA . . . . . . . . . . . . . . . . . . . . . . . 481
David Madsen, Wenjuan Li, Weizhi Meng, and Yu Wang

Roundtable Gossip Algorithm: A Novel Sparse Trust Mining Method


for Large-Scale Recommendation Systems . . . . . . . . . . . . . . . . . . . . . . . . . 495
Mengdi Liu, Guangquan Xu, Jun Zhang, Rajan Shankaran, Gang Luo,
Xi Zheng, and Zonghua Zhang

An Associated Deletion Scheme for Multi-copy in Cloud Storage . . . . . . . . . 511


Dulin, Zhiwei Zhang, Shichong Tan, Jianfeng Wang, and Xiaoling Tao

InterestFence: Countering Interest Flooding Attacks by Using Hash-Based


Security Labels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
Jiaqing Dong, Kai Wang, Yongqiang Lyu, Libo Jiao, and Hao Yin

A Secure and Targeted Mobile Coupon Delivery Scheme


Using Blockchain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 538
Yingjie Gu, Xiaolin Gui, Pan Xu, Ruowei Gui, Yingliang Zhao,
and Wenjie Liu

Access Delay Analysis in String Multi-hop Wireless Network Under


Jamming Attack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549
Jianwei Liu and Jianhua Fan

Anomaly Detection and Diagnosis for Container-Based Microservices


with Performance Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560
Qingfeng Du, Tiandi Xie, and Yu He
Contents – Part IV XV

Integrated Prediction Method for Mental Illness with Multimodal


Sleep Function Indicators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573
Wen-tao Tan, Hong Wang, Lu-tong Wang, and Xiao-mei Yu

Privacy-Aware Data Collection and Aggregation in IoT Enabled


Fog Computing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581
Yinghui Zhang, Jiangfan Zhao, Dong Zheng, Kaixin Deng,
Fangyuan Ren, and Xiaokun Zheng

A Reputation Model for Third-Party Service Providers


in Fog as a Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
Nanxi Chen, Xiaobo Xu, and Xuzhi Miao

Attribute-Based VLR Group Signature Scheme from Lattices . . . . . . . . . . . . 600


Yanhua Zhang, Yong Gan, Yifeng Yin, and Huiwen Jia

Construction of VMI Mode Supply Chain Management System


Based on Block Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611
Jinlong Wang, Jing Liu, and Lijuan Zheng

H2 -RAID: A Novel Hybrid RAID Architecture Towards High Reliability . . . 617


Tianyu Wang, Zhiyong Zhang, Mengying Zhao, Ke Liu, Zhiping Jia,
Jianping Yang, and Yang Wu

Sensitive Data Detection Using NN and KNN from Big Data . . . . . . . . . . . . 628
Binod Kumar Adhikari, Wan Li Zuo, Ramesh Maharjan, and Lin Guo

Secure Biometric Authentication Scheme Based on Chaotic Map . . . . . . . . . 643


Jiahao Liang and Lin You

Author Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655


Internet of Things and Cloud
Computing
Dynamic Task Scheduler for Real Time
Requirement in Cloud Computing System

Yujie Huang, Quan Zhang, Yujie Cai, Minge Jing(&), Yibo Fan,
and Xiaoyang Zeng

State Key Laboratory of ASIC and System, Fudan University,


Shanghai 201203, China
mejing@fudan.edu.cn

Abstract. In such an era of big data, the number of tasks submitted to cloud
computing system becomes huge and users’ demand for real time has increased.
But the existing algorithms rarely take real time into consideration and most of
them are static scheduling algorithms. As a result, we ensure real time of cloud
computing system under the premise of not influencing the performance on
makespan and load balance by proposing a dynamic scheduler called Real Time
Dynamic Max-min-min (RTDM) which takes real time, makespan, and load
balance into consideration. RTDM is made up of dynamic sequencer and static
scheduler. In dynamic sequencer, the tasks are sorted dynamically based on their
waiting and execution times to decrease makespan and improve real time. The
tasks fetched from the dynamic sequencer to the static scheduler can be seen as
static tasks, so we propose an algorithm named Max-min-min in static scheduler
which achieves good performance on waiting time, makespan and load balance
simultaneously. Experiment results demonstrate that the proposed scheduler
greatly improves the performance on real time and makespan compared with the
static scheduling algorithms like Max-min, Min-min and PSO, and improves
performance on makespan and real time by 1.66% and 17.19% respectively
compared to First Come First Serve (FCFS).

Keywords: Cloud computing  Dynamic scheduler  Real time

1 Introduction and Analysis of Related Work

With the widespread use of cloud computing [1], the number of tasks submitted to
cloud computing system grows rapidly which leads to the congestion of cloud com-
puting system, but users’ real-time requirement for cloud computing system becomes
much higher [10]. However the existing algorithms pay more attention to makespan
and load balance while rarely taking real time into consideration. And most of them are
static scheduling algorithm which do not schedule tasks until all tasks are submitted
[10]. Some representative algorithms are described below.
First come first server (FCFS) is a dynamic task scheduling algorithm which first
assigns the first arrived task to a free host. It ignores the characteristics of hosts and
tasks, such as task size and host processing capacity [2, 3].

© Springer Nature Switzerland AG 2018


J. Vaidya and J. Li (Eds.): ICA3PP 2018, LNCS 11337, pp. 3–11, 2018.
https://doi.org/10.1007/978-3-030-05063-4_1
4 Y. Huang et al.

Min-min algorithm first assigns the smallest task in the task list to the host where
the completion time of the smallest task is minimum while Max-min algorithm first
assigns the biggest one [2, 3]. Max-min achieves better performance on makespan than
Min-min.
Intelligent algorithm, like Genetic Algorithm (GA) [4, 5] and Particle Swarm
Optimization (PSO) [6, 7, 9], is applied in task scheduling because task scheduling is a
Non-deterministic Polynomial Complete problem (NP-C problem) where intelligent
algorithm is suitable [5, 6]. Intelligent algorithm can have good performance on many
aspects, like makespan and load balance, but its scheduling time is long [6].
When users make new demands, such as security of immediate data, task
scheduling algorithm should also take them into consideration without affecting
makespan and load balance as much as possible [8].
Except FCFS, all above algorithms are static scheduling algorithm which need the
information of all tasks before scheduling in order to achieve better performance [9].
But in fact, waiting for all tasks to be submitted before scheduling has a severe impact
on the real time performance because tasks are submitted one by one at an indefinite
intervals [10]. Real time of cloud computing system requires the waiting time it takes
for a task to be submitted to execution should be as short as possible. As a result, the
real time performance of the system can be measured by the total waiting time of all the
tasks. Hence, we propose a dynamic task scheduler called Real Time Dynamic Max-
min-min (RTDM) which takes makespan, load balance, and the total waiting time into
consideration.
The remainder of this paper proceeds as follows: Sect. 2 states the workflow and
architecture of RTDM, experiment results are shown in Sect. 3 and Sect. 4 concludes
this paper.

2 Real Time Dynamic Max-Min-Min

Figure 1 shows the architecture of RTDM which includes two parts: dynamic
sequencer and static scheduler. Dynamic sequencer is used to store and sort the tasks
submitted by users; Static scheduler fetches first n tasks from dynamic sequencer and
assigns them to the local task lists of suitable hosts when there is a vacant host. We take
global consideration of tasks’ characteristics by adjusting the value of n according to
the tasks’ estimated submission intervals. Each host owns a local task list, and it
executes the tasks in the list in turn. The detailed description of dynamic sequencer and
static scheduler is as follows.

2.1 Dynamic Sequencer


Once one task is submitted, it will be pushed into the dynamic sequencer and the tasks
in the sequencer will be rearranged according to their priority values. The task with
highest priority will be fetched first by the static scheduler. Regarding to the priority
value of a task, the execution time of the task should be considered together with the
submission time. In principal, the tasks submitted earlier should be scheduled first
which will improve the real time performance. And prioritizing large tasks can help
Dynamic Task Scheduler for Real Time Requirement in Cloud Computing System 5

Fig. 1. The architecture of real time dynamic max-min-min

reduce makespan, like Max-min. Therefore the priority value should be calculated as
Eq. (1).

PriorValuei ðtÞ ¼ a  ExeTimei þ b  WaitTimei ðtÞ ð1Þ

Where t means the current time, PriorValuei ðtÞ means the priority value of taski at
time t, a indicates the weight of execution time of a task, b is the weight of waiting time
of a task, ExeTimei means the execution time of taski performed on the standard host
and WaitTimei ðtÞ means the time taski has waited at time t which is calculated as
Eq. (2) where SubmitTimei means the submission time of taski . The values of a and b
are determined by the estimated ranges of all tasks’ submission intervals and execution
times.

WaitTimei ðtÞ ¼ t  SubmitTimei ð2Þ

2.2 Static Scheduler


If the number of tasks in the dynamic sequencer is greater than n, static scheduler
fetches the first n tasks from dynamic sequencer. Otherwise static scheduler fetches all
the tasks in dynamic sequencer. As shown in Fig. 1, all the fetched tasks are sent to the
task list (TL) in the static scheduler. We can take the tasks in TL as static tasks where
we can apply static scheduling algorithm. Considering the data independence of tasks,
a static scheduling algorithm with the best load balance property will achieve minimum
makespan, because only when all the hosts are fully utilized, the minimum makespan
will be achieved.
As a result, the static scheduler needs to make the difference between the com-
pletion times of all hosts as small as possible. In this sense, it is an average allocation
problem. It is known that giving more priority to the bigger task in task scheduling will
enhance the task uniformity of different hosts because small tasks have stronger
6 Y. Huang et al.

adjustability, like Max-min. But executing big tasks first will make waiting time long
while executing small tasks first will be benefit for short waiting time, like Min-min.
Based on the analysis above, we propose an algorithm named Max-min-min for static
scheduler. It assigns the biggest (max) task to the local task list of the host whose
completion time is minimum (min) after counting the biggest task, and then sorts the
local task list of the host according to the task size. Each host will first execute the
smallest (min) task in its local task list.
The workflow of the static scheduler is shown in Fig. 2:
(1) Get the task list TL and host list HL.
(2) Sort TL according to the tasks’ size.
(3) Judge whether the TL is empty? No, turn to step 4; Yes, sort the local task list of
each host according to task size and each host executes tasks in its local task list in
turn.
(4) Take out the biggest task from TL and assign it to the local task list of the host
whose completion time will be minimum after counting the biggest task. Turn to
step 3.

Sort the
task list

Fig. 2. The workflow of the static scheduler

2.3 A Tiny Example for Real Time Dynamic Max-Min-Min


Here is a tiny example for RTDM. Assume that we have five tasks and one host and the
host is vacant at the beginning. So we let n be equal to1. The execution time, and
submission time of each task is shown in Table 1. If the factor of waiting time is not
considered in dynamic sequencer, i.e. a ¼ 0:1 and b ¼ 0, the execution order is (task
id: 1, 3, 4, 5, 2). It can be seen that the task 2 cannot be executed since its priority
always is lowest, so its waiting time reaches maximum 100 s and the total waiting time
of all tasks is 150 s. In the case of a = 0.1 and b = 1, the execution order of tasks is
(task id: 1, 2, 3, 4, 5) and the max waiting time and total waiting time of all tasks are
50 s and 90 s respectively.
We can find that taking waiting time into consideration (a ¼ 0:1 and b ¼ 1) in
dynamic sequencer can reduce max waiting time and total waiting time by 50% and
40% respectively compared to ignoring waiting time (a ¼ 0:1 and b ¼ 0).
Dynamic Task Scheduler for Real Time Requirement in Cloud Computing System 7

Table 1. Waiting time, execution time and submission time of tasks


Task ID 1 2 3 4 5
Execution time (s) 20 10 20 40 30
Submission time (s) 0 10 20 30 40
Waiting time (s) (a = 0.1, b = 1) 0 10 10 20 50
Waiting time (s) (a = 0.1, b = 0) 0 100 0 10 40

3 Experiment and Results

In order to evaluate the proposed scheduler, we establish a cloud computing system


simulation model and implement RTDM, FCFS, Max-min, Min-min, Max-min-min
and PSO with python. The specific information of the tasks and hosts in the experiment
is as follows: (1) Each task includes two parameters: its execution time performed on
the standard host and its submission time. (2) Each host includes one parameter: the
ratio of its processing capacity to the standard host’s (PCR). The number of hosts in the
experiment is 10 and their parameters are listed as {2, 0.8, 0.4, 0.8, 1.1, 0.9, 1.2, 0.8,
0.4, 1.6}. The execution time of one task performed on one host is calculated as Eq. (3)
where ETij means the execution time of taski performed on hostj , ETis means the
execution time of taski performed on the standard host and PCRjs means the ratio of
hostj0 s processing capacity to the standard host’s.

ETis
ETij ¼ ð3Þ
PCRjs

3.1 Experiment in the Case of Static Tasks


In this section, we verify the superiority of Max-min-min in the case of static tasks by
comparing its makespan, load balance, and waiting time with other algorithms when
the submission interval of each task is 0. All experimental data are the average of 1000
experiments. In each experiment we generate 100 tasks whose execution time per-
formed on the standard host is a random number from 0.1 s to 100 s, then schedule the
tasks with Min-min (executing smallest tasks first), Max-min (executing biggest tasks
first), FCFS, Max-min-min and PSO, and get their makespans, coefficients of load
balance (CLB), scheduling times and total waiting times. CLB is represented by the
ratio of the variance of all hosts’ completion times to the average completion time of all
hosts. CLB can be calculated as Eq. (4) where NH means the number of hosts and cti
means the completion time of hosti .
PNH PNH
1
 i¼1 ðcti  NH 
1
j¼1 ctj Þ2
CLB ¼ NH PNH ð4Þ
NH 
1
i¼1 cti

The results are shown in Figs. 3, 4 and 5, and the results of PSO is obtained after
100 iterations.
8 Y. Huang et al.

Makespan
573.89
560.1555556
580
560 524.4733333 520.6235 520.6238 517.2751
540
520
500
480

Fig. 3. Makespans of different algorithms

Coefficient of load balance


1.81510077 1.667087108
2
1.5
1
0.013718763
0.5 0.063546788 0.013718763

0
FCFS Min-min PSO Max-min Max-min-min

Fig. 4. Coefficients of load balance of different algorithms

WaiƟng Ɵme
27584.51571 31115.68154
40000 23057.08489 15504.08458 15424.35242
30000
20000
10000
0

Fig. 5. Waiting times of different algorithms

As shown in Fig. 3 where Ideal means the minimum makespan in the ideal case of
totally average allocation which can be calculated as Eq. (5), Makespan of FCFS, Min-
min, PSO, Max-min, Max-min-min is 10.95%, 8.29%, 1.39%, 0.65%, 0.65% more
than the minimum makespan separately. The difference between Max-min and Max-
min-min is 0.0003 s, because Max-min-min spends extra time sorting the local task list
of each host to change the execution order of the assigned tasks.
Dynamic Task Scheduler for Real Time Requirement in Cloud Computing System 9

PNT
i ETis
Ideal ¼ PNH ð5Þ
j PCRjs

As shown in Fig. 4, CLB of FCFS, Min-min and PSO is 132.23, 121.52 and 4.63
times of Max-min-min separately. Max-min and Max-min-min have the same CLB
because the tasks assigned to the same host with both algorithms are the same.
As shown in Fig. 5, we can find that the total waiting time of Max-min is 1.35,
1.13, 2.01 and 2.02 times of FCFS, PSO, Min-min and Max-min-min separately.
As shown in Fig. 6, The scheduling time of PSO is 121.83, 108.11 and 138.78
times of Max-min, Max-min-min and Min-min separately while FCFS takes only
2:566  106 s.

Scheduling Ɵme
0.283564741
0.3
0.2 0.000002566 0.002043324
0.1 0.00232757 0.002623
0

Fig. 6. Scheduling times of different algorithms

We can find that Max-min-min can achieve good performance not only on
makespan and load balance, but also on waiting time. It also can be seen that an
algorithm with good load balance achieves shorter makespan in the case of static tasks.

3.2 Experiment in the Case of Dynamic Tasks


In this section we verify the superiority of RTDM in the case of dynamic tasks. We
create one thousand tasks whose execution time on the standard host is a random
number from 0.01 s to 100 s. Each task is submitted to the cloud computing system at a
random interval from 1 s to 10 s. We let a = 0.01, b = 1, n = 5 after considering the
task sizes and submission intervals.
The comparison of RTDM, Max-min, Min-min, PSO (100 iterations) and FCFS is
shown in Figs. 7 and 8.
As shown in Fig. 7, RTDM (a = 0.01, b = 1) improves performance on makespan
by 98.06%, 97.12%, 97.14% and 1.66% separately compared to Min-min, Max-min,
PSO and FCFS. RTDM (a = 0.01, b = 1) loses 0.12% performance on makespan
compared to that RTDM (a = 0.01, b = 0).
As shown in Fig. 8, the waiting time of Min-min, Max-min, PSO and RTDM
(a = 0.01, b = 1) is 22.25, 31.6, 28.07 and 2.85 times of RTDM (a = 0.01, b = 1)
10 Y. Huang et al.

respectively and RTDM (a = 0.01, b = 1) reduces waiting time by 17.19% compared


to FCFS.
In general, RTDM can improve the performance on makespan and waiting time
simultaneously.

Makespan

10045.82889 9998.8575
9998.065625
12000
10000 5066.07325
8000 5156.42 5071.991667
6000
4000
2000
0

Fig. 7. Makespans of different algorithms

WaiƟng Ɵme
5518801.624 4902733.591
6000000 3886815.42
5000000
4000000
3000000 497187.5029
2000000 204692.8845 174664.7856
1000000
0

Fig. 8. Waiting times of different algorithms

4 Conclusion

In this paper, we proposes a dynamic scheduler named Real Time Dynamic Max-min-
min (RTDM) which takes real time, makespan and load balance into consideration.
RTDM consists of dynamic sequencer and static scheduler. In dynamic sequencer, we
prioritize each task in it based on the task’s waiting time and execution time to ensure
the performance on makespan and real time. After the tasks are fetched from the
dynamic sequencer to the static scheduler, they can be seen as static tasks. So in static
scheduler, we propose an algorithm named Max-min-min which has good performance
Dynamic Task Scheduler for Real Time Requirement in Cloud Computing System 11

on makespan, load balance and real time in the case of static tasks. Experiment results
demonstrate that RTDM can improve the performance on makespan, load balance and
waiting time simultaneously.

References
1. Mell, P., Grance, T.: The NIST definition of cloud computing. National Institute of
Standards and Technology (2014)
2. Teena, M., Sekaran, K.C., Jose, J.: Study and analysis of various task scheduling algorithms
in the cloud computing environment. In: International Conference on Advances in
Computing, Communications and Informatics, pp. 658–664 (2014)
3. Bhoi, U., Ramanuj, P.N.: Enhanced max-min task scheduling algorithm in cloud computing.
Int. J. Appl. Innov. Eng. Manag. 2(4), 259–264 (2013)
4. Wei, X.J., Bei, W., Jun, L.: SAMPGA task scheduling algorithm in cloud computing. In:
Chinese Control Conference, pp. 5633–5637 (2017)
5. Makasarwala, H.A., Hazari, P.: Using genetic algorithm for load balancing in cloud
computing. In: Electronics, Computers and Artificial Intelligence, pp. 49–54 (2016)
6. Alla, H.B., Alla, S.B.: A novel architecture for task scheduling based on dynamic queues and
particle swarm optimization in cloud computing. In: Cloud Computing Technologies and
Applications, pp. 108–114 (2016)
7. Liu, X.F., Zhan, Z.H., Deng, J.D.: An energy efficient ant colony system for virtual machine
placement in cloud computing. IEEE Trans. Evol. Comput. PP(99), 1 (2016)
8. Chen, H., Zhu, X.: Scheduling for workflows with security-sensitive intermediate data by
selective tasks duplication in clouds. IEEE Trans. Parallel Distrib. Syst. 28(9), 2674–2688
(2017)
9. Gupta, S.R., Gajera, V.: An effective multi-objective workflow scheduling in cloud
computing: a PSO based approach. In: International Conference on Contemporary
Computing (2016)
10. Zhu, X., Yang, L.T., Chen, H., Wang, J., Yin, S., Liu, X.: Real-time tasks oriented energy-
aware scheduling in virtualized clouds. IEEE Trans. Cloud Comput. 2(2), 168–180 (2014)
CGAN Based Cloud Computing Server Power
Curve Generating

Longchuan Yan1,2,3(&), Wantao Liu1,3, Yin Liu4, and Songlin Hu1,3


1
Institute of Information Engineering, Chinese Academy of Sciences,
Beijing 100093, China
yanlongchuan@iie.ac.cn
2
State Grid Information and Telecommunication Branch,
Beijing 100761, China
3
School of Cyber Security, University of Chinese Academy of Sciences,
Beijing 100049, China
4
Beijing Guoxin Hengda Smart City Technology Development Co., Ltd.,
Beijing 100176, China

Abstract. For a better power management of data center, it is necessary to


understand the power pattern and curve of various application servers before
server placement and setup in data center. In this paper, a CGAN based method
is proposed to generate power curve of servers for various applications in data
center. Pearson Correlation is used to calculate the similarity between the
generated data and the real data. From our experiment of data from real data
center, the method can generate the power curve of servers with good similarity
with real power data and can be used in server placement optimization and
energy management.

Keywords: Generative Adversarial Nets


Conditional Generative Adversarial Nets  Cloud computing
Power curve generating

1 Introduction

With the increasingly wide application of Internet and Internet of things, the global
demand for computing resources and storage resources is gradually increasing. A large
number of new IT devices are put into the data center, and data centers consume a large
amount of power, of which IT equipment and refrigeration are the two main types of
energy source [1, 2]. Server is the most deployed IT device in data center. It is also the
foundation of data center’s service and an important part of energy management. In
recent years, because of the development of demand driven and energy management
technology for different types of services in the cloud computing, the cloud computing
server presents new usage rules and energy consumption characteristics. The new and
old equipment are working together, the energy consumption of new equipment is
increasing gradually. With new model of server energy consumption coming with new
applications, it is necessary to research and mater of the characteristics of energy

© Springer Nature Switzerland AG 2018


J. Vaidya and J. Li (Eds.): ICA3PP 2018, LNCS 11337, pp. 12–20, 2018.
https://doi.org/10.1007/978-3-030-05063-4_2
CGAN Based Cloud Computing Server Power Curve Generating 13

consumption of the cloud computing servers. According to the configuration and usage
of the server, we can predict and generate the typical energy consumption curve of the
cloud computing server automatically in advance, which is very important for the
energy efficiency management and optimization of the data center.
There are two ways to model server energy consumption, one is component based
modeling, and the other is performance counting based modeling. The server energy
consumption model based on component usage is mainly based on the calculation of
the total energy consumption of the server based on the usage of each component [3].
The server energy consumption model based on component usage is one of the classic
modeling methods. The modeling method based on CPU usage rate is the earliest job.
Some researchers have expanded the model and introduced the parameters of envi-
ronment temperature, bus activity and processor frequency to the model, in order to
improve the accuracy and applicability of the model. Recently, with the extensive
application of deep learning and GPU, researchers have introduced high energy con-
suming components such as GPU into the model to improve the applicability of the
model. Paper [4] discusses the modeling of static and dynamic energy consumption in
multi-core processors. The energy consumption of the processor is divided into four
parts: dynamic kernel energy consumption, non-kernel dynamic energy consumption,
kernel static energy consumption and non-kernel static energy consumption. The four
parts are modeled respectively. Finally, the total energy consumption is calculated. The
paper further studies the effect of DVFS on processor energy consumption, and finds
that not low frequency will bring low energy consumption.
These modeling methods are based on the running state of the device, and do not
take into account the energy consumption characteristics of different services and
applications at the data center level, and cannot predict the power needed for an
application to run on a new server. This is needed for data center planning, server
deployment and energy management. From the actual needs of data center, this paper
studies how to generate the power curve of the server for various applications in
advance, which can provide reference and guidance for energy consumption planning
and management.
GAN (Generative Adversarial Nets) is a recently developed training method for
generative models [5], which has been widely applied in the field of image and vision. The
researchers have made a variety of improvements to the model. It has been able to
generate objects such as digital number, face and some objects, and form a variety of
realistic indoor and outdoor scenes, recover the original image from the segmentation
image, color the black and white images, restore the object image from the object contour,
and generate the high resolution image from the low resolution image, etc. [6–10].
In this paper, the generation method of energy consumption curve of server based
on GAN is studied, and the advantages of GAN in estimating the probability distri-
bution of sample data are used for the generation of server energy consumption. The
energy consumption curves generated by the model can be used in the energy man-
agement of data centers such as server placement planning, Power Capping energy
consumption management and room temperature optimization. It is of great signifi-
cance for the resource scheduling and energy consumption optimization of the cloud
computing data center.
14 L. Yan et al.

Specifically, this paper makes the following contributions:


1. A CGAN based power generating model is proposed to enhance the quality of
server power curve generation.
2. An evaluation method for the similarity of server energy consumption curve is
proposed.

2 Analysis and Management of Server Power

2.1 Server Power Analysis


The server is one of the major energy consuming devices in the cloud computing data
center, which accounts for about 40% of the energy consumption of the data center.
The energy consumption of the server is closely related to many factors such as
manufacturer, hardware configuration, application system type, resource usage and etc.
A large number of servers in the data center show different energy consumption
characteristics. The working day and non-working day have various energy con-
sumption patterns. In the non-working day of the enterprise data center, the power
consumption of the server is low than that of the working day.
It is shown that the energy consumption curves of the working day Web and DB
servers of application system and computing and storage servers of big data processing
system in Fig. 1. The Web server has a rapid increase in power in the morning and
afternoon in the working day. There is a strong correlation between the power curve of
the DB server and the Web server. The energy consumption of the database server is

320 web db
Power(w)

300

280
1 2 3 4 5 6 7 8 9 101112131415161718192021222324
Ɵme(hour)
(a) Power curve of web and database sever
200
big data-C big data-S
Power(W)

180

160
1 2 3 4 5 6 7 8 9 101112131415161718192021222324
Ɵme(hour)
(b) Power curve of computing and storage server in big data cluster

Fig. 1. Server power curve of various applications


Another random document with
no related content on Scribd:
di agenti nostri, di uomini che vedevano, oltre i bisogni del ventre, le
radiose visioni di Libertà e Fratellanza.
Un’altra grande istituzione che aveva preso forma e funzionava
perfettamente era quella dei Mercenarî. Questo corpo di truppa che
aveva origine dall’antico esercito regolare, contava effettivi
aumentati a un milione di uomini, senza le forze coloniali. Abitavano
in città loro destinate, amministrate da un governo virtualmente
autonomo, e godevano numerosi privilegi. Questi Mercenarî
consumavano gran parte della ricchezza risparmiata. Persero però
ogni simpatia presso il resto della popolazione e svilupparono una
loro coscienza e moralità particolari. Eppure, noi avevamo migliaia di
agenti fra loro. [112]
L’Oligarchìa stessa si sviluppò in modo notevole, e, bisogna
confessarlo, inaspettato. Come classe, si disciplinò; ognuno dei suoi
membri ebbe un incarico stabilito, con l’obbligo di compierlo. Non ci
furono più giovani ricchi e oziosi; la forza dei giovani serviva a
consolidare quella dell’Oligarchìa. Servivano, sia come ufficiali
superiori nell’esercito, sia come capitani o direttori nell’industria.
Facevano carriera nelle scienze applicate, e molti di loro diventarono
ingegneri rinomati. Entravano in numerose amministrazioni
governative, assumevano impieghi nelle colonie, ed erano ricevuti a
migliaia, nei diversi servizî segreti. Facevano un periodo di prova, se
si può dir così, nell’insegnamento, nelle arti, nella Chiesa, nella
scienza e nella letteratura; e in questi differenti rami avevano una
funzione importante, modellando la mentalità nazionale in maniera
d’assicurare la continuità dell’Oligarchìa.
Si insegnava loro, e più tardi essi insegnavano, a loro volta, che il
loro modo di agire era il solo buono. Assimilavano le idee
aristocratiche fin dal principio, quando, bambini, cominciavano a
ricevere le impressioni del mondo esterno; e di queste idee erano
intessute le loro fibre, sin nel profondo delle loro ossa e delle loro
carni. Si consideravano come domatori di bestie feroci. Sotto di loro,
però, ruggiva sempre il brontolìo sotterraneo della rivolta. E tra loro,
furtivamente, si aggirava senza tregua la morte violenta: bombe,
palle, coltelli, erano le zanne di quella bestia ruggente dall’abisso,
che essi dovevano domare perchè sussistesse l’Umanità. Si
credevano i salvatori del genere umano e si consideravano come
lavoratori eroici che si sacrificavano per il suo bene.
Erano convinti che la loro classe fosse l’unico sostegno della civiltà,
e persuasi che se avessero ceduto un solo istante, il mostro li
avrebbe inghiottiti nel suo ventre cavernoso e viscido, con tutto ciò
che vi è di bello, di buono, di piacevole e meraviglioso al mondo.
Senza di loro, l’anarchia avrebbe regnato sovrana e l’umanità
sarebbe ricaduta nella notte primordiale dond’era emersa con tanta
fatica. L’orribile aspetto dell’anarchia era costantemente messo sotto
gli occhi dei loro figli, fino a che, ossessionati da quel timore, fossero
pronti a ossessionarne i loro discendenti. Tale era la bestia che
bisognava calpestare, e la sua distruzione costituiva il dovere
supremo dell’aristocratico. Insomma essi, con i loro sforzi e sacrifici
incessanti, costituivano l’unico ostacolo fra la debole umanità e il
mostro vorace; e questo credevano fermamente, con assoluta
sicurezza.
Non insisterò mai troppo su questa convinzione di rettitudine morale,
comune a tutta la classe degli Oligarchi. È stata la forza del Tallone
di Ferro; e molti compagni hanno impiegato troppo tempo a capirlo.
La maggior parte hanno attribuito la forza del Tallone di Ferro al suo
sistema di castighi e di premî. È un errore. Il cielo e l’inferno possono
entrare come fattori primi nello zelo religioso di un fanatico, ma per
la maggioranza, sono accessori in rapporto all’idea di bene e di
male. L’amore del bene, il desiderio del bene, il malcontento contro
tutto ciò che non è interamente bene; in una parola, la buona
condotta, ecco il fattore primo della religione. E si può dire altrettanto
dell’Oligarchìa. Il carcere, l’esilio, la degradazione, da un lato,
dall’altro gli onori, i palazzi, le città meravigliose, non sono che
contingenze. La grande forza motrice della Oligarchìa è la
convinzione di far bene. Non fermiamoci sulle eccezioni; non
teniamo conto dell’oppressione e dell’ingiustizia tra le quali il Tallone
di Ferro nacque. Tutto ciò è noto, ammesso, sottinteso. Il punto in
questione è che la forza dell’Oligarchìa consiste, attualmente, nella
sua concezione e soddisfazione della propria rettitudine. [113]
Ma, d’altra parte, anche la forza della rivoluzione durante questi
ultimi e terribili anni, è consistita sopratutto nella coscienza di essere
nel giusto. Non si possono spiegare altrimenti i nostri sacrifici, nè
l’eroismo dei nostri martiri. Per questo solo motivo, l’animo di
Mendenhall si è infiammato per la Causa, per questo solo ha scritto
il suo meraviglioso «Canto del Cigno», nella notte che precedette il
supplizio. Per questo solo, Hurbert è morto fra gli spasimi, rifiutando,
fino all’ultimo, di tradire i compagni. Per lo stesso motivo, Anna
Roylston ha rinunziato alla felicità della maternità, e John Carlston è
rimasto, senza retribuzione, il guardiano fedele del rifugio di Glen-
Ellen. Si interroghino tutti i compagni rivoluzionarî, uomini o donne,
giovani o vecchi, eminenti o umili, intelligenti o semplici, e si troverà
sempre che la forza che li muove di continuo e li spinge
potentemente è la loro sete di rettitudine.
Ma ritorniamo alla nostra storia. Ernesto ed io, prima di abbandonare
il nostro rifugio, avevamo perfettamente compreso l’enorme sviluppo
della potenza del Tallone di Ferro. Le caste operaie, i Mercenarî
innumerevoli, agenti e poliziotti di ogni genere, erano interamente
asserviti all’Oligarchia; perchè, in fin dei conti, tranne l’inconveniente
della perdita della libertà, vivevano meglio di prima. D’altra parte, la
grande massa disperata del popolo, del popolo dell’Abisso, si
abbandonava a un abbrutimento apatico e soddisfatto di tanta
miseria. Dei proletarî di forza eccezionale, che si distinguevano dal
gregge, gli Oligarchi si impadronivano, migliorando le loro condizioni
e ammettendoli nelle caste operaie o fra i Mercenarî. Così spariva
ogni malcontento, e il proletariato si trovava privato dei suoi capi
naturali.
La condizione dei proletari sprofondati nell’Abisso era pietosa. La
scuola comunale non esisteva più per loro; essi vivevano come
bestie, in tuguri brulicanti e sordidi; marcivano nella miseria e nella
degradazione. Erano state tolte loro tutte le antiche libertà. Era
negata a questi schiavi del lavoro persino la scelta del lavoro. Si
rifiutava loro persino il diritto di mutar residenza, o di possedere
armi. Erano servi, non della terra, come i fittavoli, ma della macchina
del lavoro. Quando si faceva sentire il bisogno del loro aiuto, per
un’impresa straordinaria, come la costruzione di grandi strade, linee
aeree, canali, gallerie, passaggi sotterranei e fortificazioni, venivano
fatte leve in massa nei tugurî dei lavoratori, che, a diecine di migliaia,
volenti o nolenti, erano trasportati sul lavoro. Un vero esercito di
schiavi lavora attualmente per la costruzione di Ardis, e sono
alloggiati in miserabili capanne, dove la vita di famiglia non è
possibile, donde la decenza è bandita, a causa di una bestiale
promiscuità. È proprio là, nel ghetto, la bestia ruggente dell’Abisso,
tanto temuta dagli Oligarchi, che, pure, l’hanno cercata e
l’alimentano, impedendo la scomparsa della scimmia e della tigre
nell’uomo.
Ed anche ora corre voce di una nuova leva progettata per la
costruzione di Asgard, la città meravigliosa, che dovrà superare tutti
gli splendori di Ardis, quando sarà finita. [114] Noialtri rivoluzionarî
cureremo la continuazione di quest’opera colossale, che però non
sarà compiuta da miserabili schiavi. Le mura, le torri e le guglie di
questa città di sogno, s’inalzeranno al ritmo delle canzoni, e la sua
bellezza incomparabile sarà cementata, anzichè da gemiti e sospiri,
dall’armonia e dalla gioia.
Ernesto era molto impaziente di ritrovarsi nel mondo e di riprendere
la sua attività, perchè i tempi sembravano maturi per la nostra prima
rivolta, quella che fallì tanto tristemente, nella Comune di Chicago.
Ma io m’adoperavo a disciplinare il suo animo alla pazienza, e per
tutto il tempo che durò il suo tormento, mentre Hadly, fatto venire
appositamente dall’Illinois, lo trasformavano in un altro uomo, [115]
egli concepiva i grandi progetti di organizzazione del proletariato
istruito, e preparava i piani per mantenere almeno un principio di
educazione nel popolo dell’Abisso, se, s’intende, si fosse avverata
l’ipotesi di uno scacco della prima rivolta.
Solo nel gennaio del 1917 abbandonammo il nostro rifugio. Tutto era
stato previsto. Immediatamente, assumemmo posizione come agenti
provocatori nel gioco del Tallone di Ferro. Io ero creduta sorella di
Ernesto. Quel posto ci era stato dato dagli Oligarchi o dai nostri
compagni autorevoli nella loro cerchia intima. Noi eravamo in
possesso di tutti i documenti necessarî; persino il nostro passato era
in regola. Con l’aiuto della cerchia intima, ciò non era difficile come si
potrebbe credere, perchè nel regno d’ombra in cui era tenuto
sempre il servizio segreto, l’identità rimaneva più o meno nebulosa.
Simili a fantasmi, gli agenti andavano e venivano, obbedivano a
ordini, adempivano al loro dovere, seguivano tracce, facevano
rapporti a ufficiali spesso sconosciuti, o cospiravano con altri agenti
che non avevano mai visti e non avrebbero mai rivisti.
CAPITOLO XXII.
LA COMUNE DI CHICAGO.

La nostra qualità di agenti provocatori non solo ci permetteva di


viaggiare liberamente, ma ci metteva in contatto col proletariato, e
con i nostri compagni rivoluzionarî. Tenevamo il piede
contemporaneamente nei due campi, servendo con ostentazione il
Tallone di Ferro, ma lavorando segretamente e con tutto l’ardore per
la Causa. I nostri erano numerosi nei varî servizî segreti
dell’Oligarchia, e, nonostante le selezioni e i rimaneggiamenti
incessanti, non hanno mai potuto essere eliminati interamente.
Ernesto aveva contribuito in massima parte al piano della prima
rivolta, fissata per i primi della primavera del 1918. Nell’autunno del
1917, eravamo tutt’altro che preparati, e la rivolta, scoppiando
prematuramente, era destinata a fallire. Naturalmente, in un
complotto così complicato, ogni fretta può essere fatale. Il Tallone di
Ferro l’aveva previsto, e si era all’uopo preparato.
Avevamo stabilito di lanciare il primo attacco contro il sistema
nervoso dell’Oligarchìa. Questa non aveva dimenticato la lezione
ricevuta al tempo dello sciopero generale e si era premunita contro
la defezione dei telegrafisti, impiantando un servizio postale
radiotelegrafico protetto dai Mercenarî. Dal canto nostro avevamo
preso tutti i provvedimenti per parare il contraccolpo. Al segnale
convenuto, da tutti i rifugi dalle città, dagli agglomeramenti, e dai
baraccamenti, sarebbero usciti i compagni devoti, che avrebbero
fatto saltare le stazioni del telegrafo senza fili. In questo modo, fin
dal primo urto, il Tallone di Ferro sarebbe messo a terra e
virtualmente privato delle sue membra.
Nello stesso tempo, altri compagni avrebbero dovuto far saltare con
la dinamite i ponti e le gallerie e rovinare le reti delle strade ferrate.
Gruppi speciali erano designati per impadronirsi dello Stato
Maggiore dei Mercenarî, e della polizia, come pure di alcuni oligarchi
particolarmente abili o che esercitavano importanti funzioni
esecutive. Così i capi del nemico sarebbero stati allontanati dal
campo di battaglia. E questa non avrebbe tardato ad accendersi
ovunque.
Molte cose si sarebbero dovute compiere simultaneamente appena
la parola d’ordine fosse stata data. I patrioti del Canadà e del
Messico, di cui il Tallone di Ferro non immaginava neppure la forza
vera, si erano impegnati di assecondare la nostra tattica. Poi c’erano
i compagni (le donne, perchè gli uomini sarebbero stati impiegati
diversamente) incaricati di affiggere i proclami stampati nelle nostre
tipografie clandestine. Coloro, fra noi, che avevano importanti
impieghi nel Tallone di Ferro, avrebbero dovuto cercare con ogni
mezzo di far cadere nel disordine e nell’anarchia tutti i loro ufficî.
Avevamo migliaia di compagni fra i Mercenarî. Il loro compito
consisteva nel far saltare i negozi e rovinare i meccanismi delicati di
tutte le macchine da guerra. Operazioni analoghe avrebbero dovuto
essere compiute nelle città dei Mercenarî e nelle case operaie.
In una parola, volevamo assestare un colpo improvviso, magistrale e
stupendo. L’Oligarchìa sarebbe stata distrutta prima di potersi
riavere dallo stupore. L’operazione avrebbe comportato ore terribili e
il sacrificio di numerose vite, ma nessun rivoluzionario si lascia
arrestare da simile considerazione. Ed anche molte cose, nel nostro
piano, dipendevano dal popolo non organizzato, dall’Abisso che
doveva essere sguinzagliato verso i palazzi e le città dei suoi
padroni. Che cosa importavano mai la perdita delle vite e la
distruzione delle proprietà? La bestia dell’Abisso avrebbe muggito, la
polizia e i Mercenarî avrebbero ucciso. Ma la bestia dell’Abisso
avrebbe ruggito per qualunque causa e gli sterminatori patentati
avrebbero ucciso con ogni mezzo. Così, i varî pericoli che ci
minacciavano si sarebbero neutralizzati reciprocamente. Durante
quel tempo, avremmo compiuto il nostro dovere con una sicurezza
relativa, ed avremmo preso la direzione di tutto il meccanismo
sociale.
Tale era il nostro piano; ogni particolare, prima elaborato in segreto,
era poi, a mano a mano che si avvicinava il tempo dell esecuzione,
comunicato ad un numero sempre crescente di compagni. Questo
allargamento progressivo del complotto era causa di pericolo: ma
questo pericolo non fu nemmeno raggiunto. Mediante il suo sistema
di spionaggio, il Tallone di Ferro ebbe sentore della rivolta stabilita, e
si preparò ad infliggerci una nuova e sanguinosa lezione. Chicago fu
il posto scelto per la dimostrazione, che fu esemplare.
Di tutte le città, Chicago era la più matura per la rivoluzione. [116]
Chicago chiamata un tempo la città del sangue, avrebbe meritato di
nuovo quel soprannome. Troppi scioperi vi erano stati soffocati al
tempo del capitalismo, e troppe teste schiacciate nell’ultimo, perchè i
laburisti fossero disposti a dimenticare o a perdonare. La rivolta
covava perfino tra le classi operaie della città. Sebbene queste
avessero mutato condizione e avessero ottenuto molti favori, esse
conservavano un odio inestinguibile per la classe dominatrice.
Questo stato d’animo aveva contaminato anche i Mercenarî, tre
reggimenti dei quali erano pronti a unirsi con noi, in massa.
Chicago era sempre stata un centro di conflitti fra lavoro e capitale,
una città dove si combatteva nelle vie, dove le morti violente erano
frequentissime, dove la coscienza di classe e l’organizzazione erano
sviluppate tanto nei lavoratori, quanto nei capitalisti; dove, un tempo,
perfino i maestri di scuola formavano dei sindacati affiliati alla
Confederazione Americana del lavoro, con quelli dei manovali e
muratori. Chicago doveva, dunque, diventare il centro di
quell’uragano prematuro, che fu la prima rivolta.
Lo scatenarsi del ciclone fu affrettato dal Tallone di Ferro; con molta
abilità. Tutta la popolazione, comprese le cataste dei lavoratori
privilegiati, fu sottoposta a una serie di trattamenti oltraggianti.
Impegni e accordi furono violati; furono inflitti castighi severi per
errori insignificanti. Il popolo dell’Abisso fu svegliato a colpi di frusta,
dalla sua apatìa. Il Tallone di Ferro si impegnò di far ruggire la
bestia. Contemporaneamente, mostrava un’incredibile noncuranza
per quanto concerneva le misure di precauzione più elementari. La
disciplina s’era allentata fra i Mercenarî rimasti sotto le armi, mentre
parecchi reggimenti, tolti dalla città, erano sparpagliati qua e là pel
Paese.
Non ci volle molto per far trionfare questo programma: fu faccenda di
poche settimane. Noialtri rivoluzionari avemmo sentore di qualche
cosa del genere, ma era una troppo vaga conoscenza, che non ci
rivelava tutta la verità. Pensavamo che quelle disposizioni per la
rivolta fossero spontanee e che ci avrebbero dato del filo da torcere,
ma non pensavamo neppure che il movimento potesse essere
preparato deliberatamente, e così segretamente nell’ambito del
Tallone di Ferro, da non lasciar trapelare nulla a noi.
L’organizzazione di quel movimento controrivoluzionario fu una
meraviglia, come anche la sua esecuzione.
Ero a Nuova York, quando ricevetti l’ordine di recarmi
immediatamente a Chicago. L uomo che mi rimise quest’ordine era
uno degli Oligarchi; ne fui certa sentendolo parlare. Sebbene non
conoscessi il suo nome, e non vedessi che il suo viso, m’accorsi da
quelle istruzioni chiarissime, leggendo subito fra le righe, che la
nostra cospirazione era stata scoperta, e la contromina non
attendeva che una scintilla per iscoppiare.
Gl’innumerevoli agenti del Tallone di Ferro, me compresa, avrebbero
fatto scaturire la scintilla da lontano, o andando sul posto. Mi vanto
di aver conservato il mio sangue freddo, sotto lo sguardo scrutatore
dell’Oligarca; ma il mio cuore batteva pazzamente. Prima che egli
avesse finito di dare i suoi ordini implacabili, io mi sentivo già pronta
a urlare ed a stringergli la gola fra le mie mani contratte.
Appena lontana da lui feci il calcolo del tempo di cui disponevo. Se
la fortuna mi assisteva, potevo disporre di qualche minuto per
mettermi in comunicazione con qualche capo locale, prima di saltare
nel treno. Usando tutte le precauzioni per non essere seguita, corsi
come una pazza all’Ospedale di Pronto Soccorso, ed ebbi la ventura
di essere ammessa immediatamente presso un medico in capo, il
compagno Galvin. Cominciavo, senza respiro, a comunicargli la
notizia, quand’egli mi interruppe:
— So tutto, — disse, con una calma che contrastava col lampo dei
suoi occhi d’irlandese. — Indovino lo scopo della vostra visita. Ho
ricevuto la notizia un quarto d’ora fa, e l’ho già trasmessa. Si farà
tutto il possibile, qui, affinchè i compagni stiano tranquilli. Chicago,
solo Chicago dev’essere sacrificata.
— Avete tentato di mettervi in comunicazione con Chicago? —
chiesi.
Scosse la testa: — Nessuna comunicazione telegrafica è possibile.
Chicago è isolata dal mondo, e vi si scatenerà l’inferno.
Tacque un istante, e lo vidi stringere i pugni. Poi esclamò:
— Per Dio! vorrei andarci, però!
— C’è ancora speranza d’impedire molte cose, — dissi. — se il mio
treno non ha incidenti e se posso arrivare in tempo; oppure se altri
compagni del servizio segreto, sapendo la verità, possono recarsi
subito colà.
— Voialtri del circolo interno, vi siete lasciati scoprire questa volta. —
disse.
— Il segreto era molto ben custodito, — risposi. — Solo i capi lo
sapevano, prima di oggi. Non avendo potuto giungere sino a loro
eravamo nell’ignoranza. Se almeno Ernesto fosse qui! Forse egli è a
Chicago, ora, e allora tutto andrà bene.
Il dottor Galvin fece un cenno negativo.
— Secondo le ultime notizie, dev’essere stato mandato a Boston o a
Nuova Haven. Il servizio segreto per il nemico lo deve urtare
enormemente, ma è preferibile questo anzichè restar rinchiusi in un
rifugio.
Mi alzai per partire, e Galvin mi strinse forte la mano.
— Non perdete coraggio. — mi raccomandò, a mo’ di saluto. — Se
la prima rivolta è perduta, ne faremo una seconda, e saremo più
savî. Arrivederci e buona fortuna. Non so se vi vedrò ancora.
Dev’essere terribile, laggiù, ma darei volentieri dieci anni di vita per
trovarmi là.
Il Secolo Ventesimo [117] lasciava Nuova York alle sei di sera, per
arrivare a Chicago alle sette del mattino. Ma perdette molto tempo,
quella notte, perchè seguivamo un altro convoglio. Fra i viaggiatori
che occupavano il mio vagone Pullmann, c’era il compagno
Hartmann, che apparteneva, come me, al servizio segreto del
Tallone di Ferro. Egli mi parlò del treno che precedeva
immediatamente il nostro. Era una riproduzione perfetta del nostro
ma non conteneva viaggiatori. Era destinato, se ci fosse stata
l’intenzione di far saltare in aria il Secolo Ventesimo, a saltare in
vece di questo. Anche nel nostro treno non c’era molta gente: contai
appena dodici o tredici viaggiatori nella nostra vettura.
— Ci devono essere personaggi importanti in questo treno, — disse
Hartman, a mo’ di conclusione. — Ho osservato un carrozzone
riservato, dietro.
Era notte piena, quando avvenne il primo cambiamento di macchina,
ed io scesi sul marciapiedi per respirare un po’ d’aria pura e tentare
di cogliere, se potevo, qualche osservazione. Dai finestrini del
vagone riservato, intravidi tre uomini che conoscevo. Hartman aveva
ragione. Uno di essi era il generale Altendorff, gli altri due, Masson e
Vanderbold, che costituivano come il cervello del servizio
dell’Oligarchia.
Era una bella notte di luna piena, ma mi sentivo agitata e non potevo
dormire. Alle cinque del mattino mi alzai e mi vestii.
Chiesi ad una cameriera del gabinetto di toeletta quanto ritardo ci
fosse, ed essa mi rispose: — Due ore. — Era una mulatta. Osservai
che aveva i lineamenti stirati, gli occhi molto cerchiati, che
sembravano dilatati da un’ansia continua.
— Che avete? — le chiesi.
— Nulla, signorina, non ho dormito bene. — rispose.
La guardai più attentamente, ed arrischiai uno dei nostri segni
convenzionali. Essa rispose, e mi assicurai che era dei nostri.
— Deve succedere a Chicago qualche cosa di terribile, — disse. —
C’è quel falso treno davanti a noi. Esso e i convogli di truppa
ritardano il nostro arrivo.
— Treni militari? — chiesi.
Essa fece un cenno affermativo.
— La linea ne è piena. Li abbiamo incontrati tutta notte. E tutti diretti
a Chicago. Sono segnalati mediante le comunicazioni aeree. Questo
vuol dir molto... Ho un buon amico a Chicago, — soggiunse come
per scusarsi. — È uno dei nostri. È fra i Mercenarî, e temo per lui.
Povera ragazza! Il suo innamorato apparteneva ad uno dei tre
reggimenti infedeli.
Hartman ed io mangiammo insieme nel vagone restaurant, ed io mi
sforzai di mangiare. Il cielo si era coperto, e il treno filava come un
tuono monotono a traverso il grigio manto di quella giornata. Persino
i negri che ci servivano sapevano che si stava preparando qualche
cosa di tragico. Avevano perduto la loro solita leggerezza, e
sembravano oppressi. Erano lenti nel servire, avevano la mente
rivolta altrove e scambiavano qualche parola triste dall’uno all’altro
lato del vagone, vicino alla cucina. Hartman vedeva la cosa sotto
una luce fosca.
— Che possiamo fare? — chiese per la ventesima volta, alzando le
spalle. Poi indicando la finestra: — Ecco, tutto è pronto. Potete esser
certa che ve n’è una fila così lunga tutta la strada ferrata.
Alludeva ai treni militari schierati sui binarî morti. I soldati
preparavano il rancio su fuochi accesi vicino ai binarî e guardavano,
incuriositi, il nostro treno che proseguiva senza rallentare la sua
fulminea corsa.
Quando entrammo in Chicago, tutto era tranquillo. Evidentemente,
nulla di anormale era ancora accaduto. Nei sobborghi furono
distribuiti i giornali del mattino. Non dicevano nulla di nuovo, eppure
la gente abituata poteva leggervi fra le righe molte cose che
sfuggivano al lettore comune. Si sentiva la mano fine del Tallone di
Ferro in ogni colonna. Si lasciavano intravedere alcuni punti deboli
nell’armatura dell’Oligarchìa, ma, s’intende, non vi era nulla di
definitivo; si voleva che il lettore trovasse la spiegazione da sè,
attraverso le allusioni. Tutto ciò era fatto con molta destrezza. Come
romanzi d’avventure, i giornali del mattino del 27 ottobre sarebbero
stati dei capolavori.
Mancavano i dispacci locali, e questa mancanza era segno di un
colpo maestro. Avviluppava Chicago di mistero, e suggeriva al
lettore ordinario della città, l’idea che l’Oligarchia non osasse dare le
notizie locali. Una rubrica parlava di sommosse, false naturalmente,
di atti di insubordinazione, commessi un po’ dappertutto; bugie
grossolanamente mascherate da allusioni ai provvedimenti
repressivi da adoperare. Un’altra annunciava una serie di attentati
dinamitardi contro stazioni della telegrafia senza fili, e le grosse
ricompense promesse a coloro che avrebbero denunciati gli autori.
Si annunciavano molti delitti del genere, non meno immaginarî, però,
ma perfettamente rispondenti ai disegni dei rivoluzionarî. Tutto
questo era fatto con lo scopo di creare nella mente dei compagni di
Chicago l’impressione di una rivolta generale che stesse per
cominciare, e nello stesso tempo per creare una gran confusione
mediante particolari di scacchi parziali. Chi non era ben informato
non poteva sfuggire alla sensazione vaga ma certa, che tutto il
paese era pronto per una sommossa già cominciata.
Un telegramma diceva che la defezione dei Mercenarî in California
era diventata così seria, che una mezza dozzina di reggimenti erano
stati sbandati e dispersi, e che i soldati con le loro famiglie erano
stati espulsi dalle loro città speciali e rigettati nei ghetti dei lavoratori.
Ora i Mercenarî di California erano, in realtà, più fedeli di tutti ai loro
padroni. Ma come si poteva saperlo a Chicago, isolata dal resto del
mondo? Un dispaccio, mutilato durante la trasmissione, descriveva
la sollevazione della plebaglia di Nuova York, che s’era unita alle
caste operaie, e finiva affermando (la cosa sarebbe stata
considerata come un bluff) che le truppe avevano il sopravvento.
E non solamente con la stampa, gli oligarchi avevano tentato di
divulgare informazioni false. Sapemmo dopo che, a più riprese, sul
far della notte, erano giunti messaggi telegrafici destinati unicamente
ad essere intercettati dai rivoluzionarî.
— Credo che il Tallone di Ferro non avrà bisogno dei nostri uffici, —
osservò Hartman, posando il giornale che stava leggendo, quando il
treno entrò nel deposito centrale. — Era inutile mandarci qui. I loro
disegni sono riusciti meglio di quanto sperassero. L’inferno si
scatenerà da un momento all’altro.
Si voltò per guardare il treno che avevamo abbandonato.
— L’ho pensato, — disse — Hanno sganciato il carrozzone riservato
quando i giornali sono stati portati sul treno.
Hartman era accasciato. Tentai di incoraggiarlo, ma sembrava non
accorgersi dei miei sforzi. Ad un tratto si mise a parlare presto
presto, a bassa voce, mentre attraversavamo la stazione. Dapprima
non capii.
— Non ne ero sicuro, e non ne ho parlato a nessuno, — disse. —
Sono settimane e settimane che tento l’impossibile, ma non ho
potuto averne la certezza. State attenta a Knowlton. Dubito di lui.
Egli conosce il segreto di molti nostri rifugi. Ha in mano sua la vita di
centinaia di nostri, e credo che sia un traditore. La mia è solo
un’impressione, sinora. Ma ho osservato un cambiamento in lui, da
un po’ di tempo. È possibile che ci abbia venduti o, se non l’ha fatto,
ha l’intenzione di farlo. Ne sono quasi sicuro. Non potevo svelare i
miei sospetti ad alcuno, ma, non so perchè, sento che non lascerò
vivo Chicago. Tenete d’occhio Knowlton. Tentate di attirarlo in
trappola. Smascheratelo. Non so nulla di più. Finora è solo
un’intuizione che non riesco a spiegare logicamente.
In questo momento uscivamo sul marciapiede esterno.
— Ricordatevi, — concluse Hartman, con aria frettolosa. — Tenete
d’occhio Knowlton.
Ed aveva ragione: non trascorse un mese, e Knowlton scontò con la
vita il suo tradimento. Fu formalmente giustiziato dai compagni del
Milwaukee.
Le vie erano tranquille. Chicago sembrava morta. Non si sentiva il
movimento degli affari, non c’erano nemmeno le vetture. I tranvai
erano fermi e gli aerei non funzionavano. Di rado, sui marciapiedi, si
incontrava qualche solitario passante che non indugiava affatto, ma
procedeva, alla svelta, verso una meta ben definita. Però
s’indovinava nella sua andatura un’indecisione strana, come s’egli
temesse che le case potessero crollare o che il marciapiede gli
sprofondasse sotto i piedi. Alcuni monelli oziavano, e nei loro occhi
si leggeva un’attesa contenuta, come se aspettassero avvenimenti
meravigliosi e commoventi.
Da qualche parte, a grande distanza, verso il sud, giunse il rumore
sordo di un’esplosione. Poi, più nulla. La calma ritornò; ma i monelli,
allarmati, tendevano l’orecchio, come giovani daini, nella direzione
del suono. Le porte di tutte le case erano chiuse, le saracinesche dei
negozi abbassate. Ma apparivano, in evidenza, molti poliziotti e
guardie e, a intervalli, passava rapidamente una pattuglia di
Mercenarî in automobile.
Hartman ed io, di comune accordo, considerammo inutile presentarci
ai capi locali del servizio segreto. Quell’omissione sarebbe stata
scusata, lo sapevamo, in favore degli avvenimenti seguenti. Ci
dirigemmo dunque verso il grande ghetto dei lavoratori del quartiere
meridionale, con la speranza di avvicinare qualcuno dei nostri
compagni. Era troppo tardi. Ma non potevamo rimanere inerti in
quelle vie orribilmente silenziose. Dov’era Ernesto? Me lo chiedevo
continuamente. Che cosa succedeva nella città delle caste operaie e
in quelle dei Mercenarî? E nella fortezza?
Come in risposta a questa domanda, sorse nell’aria un ruggito
prolungato, un brontolio un po’ attutito dalla distanza, ma
punteggiato da una serie di detonazioni precipitate.
— È la fortezza. — esclamò Hartman. — Il cielo abbia pietà di quei
tre reggimenti!
Ad un crocicchio, osservammo, nella direzione dei negozi alimentari,
una gigantesca colonna di fumo. Al crocicchio seguente ne
vedemmo parecchie altre che s’innalzavano al cielo, nel quartiere
dell’ovest. Al disopra della città dei Mercenarî si librava un rosso
pallone frenato, che scoppiò proprio mentre lo guardavamo,
lasciando cadere da ogni parte i suoi brani infiammati. Questa
tragedia aerea non ci rivelava nulla, perchè non sapevamo se nel
pallone ci fossero amici o nemici. Un rumore vago ci ronzava negli
orecchi, simile al ribollimento lontano di una pentola gigantesca; e
Hartman mi disse che era il crepitio delle mitragliatrici e dei fucili
automatici.
Ciononostante, camminavamo sempre in un luogo tranquillo dove
non accadeva nulla di straordinario. Passarono dapprima agenti di
polizia e pattuglie in automobile, poi una mezza dozzina di pompe
che ritornavano evidentemente dal luogo di un incendio.
Un ufficiale, che era su un’automobile, interrogò i pompieri, di cui
uno rispose: — Non c’è acqua. Hanno fatto saltare le condutture
principali.
— Abbiamo distrutta la provvista dell’acqua. — osservò Hartman,
entusiasmato. — Se possiamo fare una cosa simile in un tentativo di
rivolta prematura, isolato e abortito in sul nascere, immaginiamo che
cosa si può fare con uno sforzo maturo e concorde in tutto il paese!
L’automobile dell’ufficiale che aveva parlato ai pompieri si allontanò
rapidamente. Improvvisamente scoppiò un fragore assordante: la
vettura, col suo carico umano, fu sollevata in un turbine di fumo, poi
precipitò, ricadde come un mucchio di rottami e di cadaveri.
Hartman esultava. — Bravo, bravo, — ripeteva a bassa voce. —
Oggi il proletariato riceve una lezione, ma ne dà anche una.
La polizia accorreva verso il luogo del disastro. Un’altra automobile
di pattuglia si era fermata. Quanto a me, ero come intontita
dall’avvenimento improvviso. Non capivo che fosse accaduto sotto i
miei occhi, e mi ero appena accorta che eravamo stati accerchiati
dalla polizia. Ad un tratto, vidi un agente che stava per abbattere
Hartman: ma costui, sempre con sangue freddo, gli diede la parola
d’ordine: vidi la rivoltella vacillare, poi abbassarsi, e sentii il poliziotto
brontolare deluso. Era in collera e malediceva tutto il servizio
segreto. Dichiarava che quella gente era sempre fra i piedi. Hartman
gli rispondeva con la superiorità caratteristica degli agenti del
servizio di informazioni e gli riferiva, con tutti i particolari, gli errori
della polizia.
Come ridesta da un sogno, mi resi conto di quanto era accaduto.
Numerosi curiosi si erano fermati, e due uomini stavano per
sollevare l’ufficiale ferito per portarlo nell’altra automobile, ma furono
presi da panico improvviso, e tutti, spaventati, si sparpagliarono in
varie direzioni. I due uomini avevano lasciato cadere rudemente il
ferito e correvano come gli altri. Anche l’agente brontolone si mise a
correre, ed Hartman ed io facemmo lo stesso, senza sapere il
perchè, spinti da un cieco terrore ad allontanarci al più presto da
quel luogo fatale.
Non era successo nulla di particolare in quel momento; eppure mi
spiegavo tutto. I fuggitivi ritornavano timidamente, ma, ogni
momento, alzavano gli occhi con apprensione alle finestre alte delle
grandi case che dominavano da ogni parte la strada, come le pareti
d’una gola dirupata. La bomba era stata lanciata da una di quelle
innumerevoli finestre, ma da quale? Non c’era stata una seconda
bomba, ma si aveva il timore di riceverla.
Oramai guardavamo le finestre con aria circospetta. La morte poteva
essere in agguato dietro una qualunque. Ogni casa poteva tendere
un’imboscata. Era la guerra, in quella jungla moderna che è una
grande città. Ogni strada poteva essere un canalone, ogni
costruzione una montagna. Nulla era cambiato dai tempi dell’uomo
primitivo, nonostante le automobili blindate che filavano attorno a
noi.
Allo svolto di una via trovammo una donna stesa a terra in un lago di
sangue. Hartman si chinò su di lei. Io mi sentivo svenire. Dovevo
vedere molti morti, quel giorno, ma l’eccidio in massa non mi colpì
come quel primo cadavere abbandonato là, ai miei piedi, sul
lastricato.
— Ha ricevuto un colpo di rivoltella al petto — dichiarò Hartman.
Essa stringeva, come un bimbo, sotto il braccio, un pacco di
manifesti. Anche morendo non aveva voluto staccarsi da ciò che era
stato la causa della sua morte. Infatti, quando Hartman riuscì a
toglierle il pacco, vedemmo che era formato da grandi fogli stampati:
erano i proclami dei rivoluzionarî.
— Una compagna! — esclamai.
Hartman si limitò a maledire il Tallone di Ferro, e continuammo per la
nostra strada. Fummo fermati molte volte da agenti e da pattuglie,
ma le parole d’ordine ci permisero di proseguire. Non cadevano più
bombe dalle finestre: sembrava che gli ultimi passanti fossero
svaniti, e i luoghi fossero ridivenuti più tranquilli che mai. Ma la
gigantesca pentola continuava a ribollire in lontananza, il rumore
sordo delle esplosioni giungeva da ogni parte, e colonne di fumo
sempre più numerose inalzavano sempre più in alto i loro sinistri
pennacchî.
CAPITOLO XXIII.
LA FOLLA DELL’ABISSO.

Improvvisamente, le cose cambiarono aspetto; un fremito di


animazione sembrò vibrare nell’aria. Passarono, con volo rapido,
due, tre, una dozzina di automobili con persone che ci gridavano
avvertimenti. Al prossimo incrocio di vie, una delle vetture fece una
terribile svolta senza rallentare e un istante dopo, al posto che
appena aveva lasciato e dal quale era già lontana, l’esplosione di
una bomba scavava una gran buca. Vedemmo la polizia sparire
correndo per le vie laterali; sapevamo che qualche cosa di
spaventoso si avvicinava, di cui sentivamo il brontolìo crescente.
Potevamo già vedere la testa della colonna che sbarrava la via da
un muro all’altro, al momento in cui fuggiva l’ultima automobile
blindata. Questa, giunta alla nostra altezza, si fermò un attimo. Un
soldato ne scese in fretta, portando qualcosa che depose con molta
precauzione nel ruscello, poi riprese d’un salto il suo posto.
L’automobile si slanciò, virò all’angolo e disparve. Hartman corse al
limite del marciapiede e si chinò sull’oggetto.
— Non vi avvicinate, — mi gridò.
Lo vidi lavorare febbrilmente con le mani. Quando mi raggiunse, la
sua fronte era imperlata di sudore.
— Ho tolto l’esca, — disse, — e al momento buono. Quel soldato è
inetto: l’aveva destinata ai nostri compagni, ma non aveva calcolato
il tempo giusto. Sarebbe scoppiata prima. Ora non scoppierà più.
Gli avvenimenti precipitavano. Dall’altro lato della via, un po’ più
lontano, alle finestre di un caseggiato, distinguevo delle persone che
guardavano. Avevo appena finito di farle osservare ad Hartman,
allorchè fiamme e fumo si svilupparono su quella parte della
facciata, e l’aria fu scossa da un’esplosione. Il muro di pietra, in
parte demolito, lasciava vedere l’armatura di ferro dell’interno. Poco
dopo la facciata della casa dirimpetto era dilaniata da esplosioni
simili. Nell’intervallo si sentivano crepitare le rivoltelle ed i fucili
automatici. Quel duello aereo durò parecchi minuti, poi finì
coll’acquetarsi. Evidentemente i nostri compagni occupavano uno
dei caseggiati, e i Mercenarî quello di faccia, e gli avversarî si
combattevano attraverso la via: ma non potevamo sapere da qual
parte fossero i nostri.
In quel momento, una colonna che procedeva nella strada era giunta
quasi alla nostra altezza. Appena le prime file passarono sotto le
finestre delle case rivali, il bombardamento riprese con forza. Da un
lato si gettavano bombe sulla via, dall’altro se ne lanciavano contro
la casa di faccia, che rispondeva. Ora sapevamo quale fosse la casa
occupata dai nostri, che facevano opera buona difendendo la gente
della strada dalle bombe del nemico.
Hartman mi prese per un braccio e mi trascinò in un vicolo che
serviva di entrata in qualche luogo.
— Non sono i nostri compagni, — mi disse all’orecchio.
Le porte di quel vicolo cieco erano chiuse e sprangate. Non
avevamo via di scampo perchè in quel momento la testa della
colonna ci oltrepassava. Non era una colonna, ma una confusa
massa di gente, un torrente inondatore che empiva la via; era il
popolo dell’Abisso esaltato dal bene e dalle sofferenze, che ruggiva
e sparava calci per poter bere, infine, il sangue dei suoi padroni.
L’avevo già veduto, quel popolo dell’Abisso; avevo attraversato i suoi
ghetti, e credevo di conoscerlo, ma mi pareva di vederlo per la prima
volta. La sua muta apatia era svanita; in quell’ora, come dominato da
una forza affascinante, temibile, pareva un mare che muggisse di
collera visibile nelle onde grondanti e rombanti, un gregge di

You might also like