You are on page 1of 2

Page 1

PLAGIARISM SCAN REPORT

Words Date November 26, 2021

Characters 5755 Excluded URL

11% 89% 5 40
Plagiarized
Plagiarism Unique Unique Sentences
Sentences

Content Checked For Plagiarism

Define what is meant by ‘big data’ and explain the key characteristics of big data
Big Data is a large data collection, yet it is growing exponentially over time. It is data that is so large and sophisticated
that none of the common data management tools can store or process it properly. Big data is also a type of data, but
with a larger size.
Characteristics of Big Data
Big data can be described by the following characteristics:
1. Volume
2. Variety
3. Velocity
4. Variability
(i) Volume – The name Big Data itself is related to a very large size. Data size plays a very important role in determining
the amount of data. Also, whether certain data can actually be considered Big Data or not, depends on the amount of
data. Therefore, 'Volume' is one factor that needs to be considered when working with Big Data solutions.
(ii) Variety – The next aspect of Big Data is its variety.
Variety refers to the various sources and nature of data, both formal and informal. In earlier days, spreadsheets and
websites were the only data sources considered by most applications. Today, data in the form of emails, photos, videos,
monitoring tools, PDFs, audio, etc. they are also considered in the analysis programs. This variety of randomized data
raises specific problems for data storage, digging and analysis.

iii) Velocity – The term velocity refers to the speed of data production. How quickly data is produced and processed to
meet needs, determines the actual power of data. Big Data Velocity is about the speed at which data enters from
sources such as business processes, application logs, networks, and social networking sites, sensors, Mobile Devices,
etc. The data flow is huge and continuous.
(IV) Variability – This means inconsistencies that data can sometimes show, thus disrupting the process of managing
and managing data effectively.

b) Critically discuss these six debates and explain how organizations may respond to them
1) Inductive and deductive approaches to big data analytics 
It is widely acknowledged that "big data" comes from many different sources. This includes sources from within the
organization, such as data from ERP systems and transaction data, as well as data from external sources, such as data
provided to third parties, user­generated data, open data, and sensor data. As a result, data is often not produced and
collected for the same purposes that it ends up being used for.
Depending on the variety (i.e., data level) of the data, it may be difficult to predict what data can be collected from a
variety of older data sources. The big data trend has created an attitude of data collection without a predefined
purpose, promoting a low­level, informative approach to big data collection, testing, and analysis. Such an approach
‘‘starts with data and seeks to produce a theoretical explanation ’”. For example, Madsen (2015) conducted a study of
how digital aspects of digital social statistics (a subset of big data analytics) affected project work. This study
demonstrates in the case of a single project leader that analysts can make sense of big data by combining it with pre­
demonstrates in the case of a single project leader that analysts can make sense of big data by combining it with pre­
Page 2
determined categories, or by choosing to accept categories based on computer­generated similarities that were not
considered in advance. Such an approach teaches and allows previously unknown patterns or patterns to emerge from
big data. Thus, data collected for a single purpose may be used for many other purposes, as this data can be compiled
and analyzed in new ways.
2) Algorithmic and human­based intelligence
When processing and interpreting data, human characters can be influenced, for example, by time constraints and
doubts about data reliability; group naming (Sharma et al., 2014); input and output detection; relationships against
analysis and evidence­based mental sets, as well as historical data (Seddon et al., 20176). To minimize such
influences, scientists and doctors have begun experimenting with the power of algorithms to process large amounts of
data at an ever­increasing rate. Algorithmic intelligence has gained popularity with the growth of big data and current
technological advances, and organizations are increasingly relying on such intelligence to analyze big data.
The argument that favors algorithmic ingenuity is that algorithms ‘‘guide analysts to new analytical thinking and
categories ’while avoiding preconceived notions and pre­determined divisions. Algorithmic processing usually follows
established, pre­programmed processes, but can lead to patterns and details that were not considered ex­ante
(Madsen, 2015). In the case of artificial intelligence or machine learning algorithms, processes improve even over time.
Experts point to many examples of algorithmic ingenuity, such as algorithms that develop traffic models; Watson of IBM;
self­driving cars; fraud detection algorithms; loan processing algorithms, and credit systems. Algorithms seem to be
increasingly capable of predicting human behavior in real­time, not only using data with descriptive conclusions but also
predicting and prescribing drugs. Along with big data, algorithms allow for increased automation of performance and
strategic decision­making, which has been considered complex and therefore requires human judgment. In cases
where algorithms are used to operate without human intervention, they ‘‘shape the world ’, which gives algorithms a
character that works continuously. This, for example, is a situation in which algorithms learn and make real­time
decisions based on click­through behavior, thus having an impact on user behavior.

Sources Similarity

www.guru99.com › what­is­big­dataWhat is BIG DATA? Introduction, Types, Characteristics and ...

Oct 06, 2021 ꞏ Big data can be described by the following characteristics: Volume; Variety; Velocity; Variability (i)
Volume – The name Big Data itself is related to a size which is enormous. Size of data plays a very crucial role in 20%
determining value out of data.

https://www.guru99.com/what­is­big­data.html/

What is Big Data? ­ Training Bangalore

Jun 8, 2019 — Big data is a term that describes the large volume of data, structured and unstructured, that floods a
company on a day­to­day basis. Big Data ... 5%
https://www.trainingbangalore.in/blog/what­is­big­data

www.sciencedirect.com › science › articleDebating big data: A literature review on realizing value ...

Sep 01, 2017 ꞏ Inductive and deductive approaches to big data analytics It is widely acknowledged that “big data”
comes from many different sources. These include sources from inside the organization, such as data from ERP
systems and transactional data, and data from external sources, such as data offered by third parties, user­
5%
generated data, open data, and sensor data (e.g., Zuboff, 2015 ).

https://www.sciencedirect.com/science/article/pii/S0963868717302615/

Debating big data: A literature review on realizing value from ...

by WA Günther ꞏ 2017 ꞏ Cited by 559 — For example, Madsen (2015) performed a study on how technological
features of digital social analytics (a subset of big data analytics) influenced project ...
4%
https://www.sciencedirect.com/science/article/pii/S0963868717302615

You might also like