You are on page 1of 41

‫?

‪How to write a scientific Paper‬‬


‫كيف تكتب ورقة علمية؟‬
‫‪Dr. Ahmad B. A. Hassanat‬‬
‫الدكتور احمد الحسنات‬
‫جامعة مؤته‪ ،‬االردن‬
‫العناوين الرئيسة‬

‫ملء الفراغ العلمي‬ ‫•‬


‫ايصال الفكرة لآلخرين‬ ‫•‬
‫هيكلية الورقة العلمية‬ ‫•‬
‫حاول دائما الحصول على المساعدة‬ ‫•‬
‫النشر‬ ‫•‬
‫مراجع المحاضرة‬ ‫•‬
‫‪Filling the gap‬‬
‫ملء الفراغ العلمي‬
‫المعرفة غير المكتشفة‬

‫معرفة االنسان الحالية‬

‫اقرأ‪ ،‬اقرأ‪ ،‬ثم أقرأ لتتمكن من معرفة‬


‫الفراغ (االزرق) لتمأله بانجازك‪،‬‬
‫عندها يمكنك ان تكتب عما انجزت‬
‫لتعلم العالم لتحديث اللون االزرق الى‬
‫احمر‬
‫ايصال الفكرة لآلخرين‬

‫ايجاد المشكلة‬ ‫•‬


‫هل هي مشكلة مهمة؟ يفضل ان تكون‬ ‫•‬
‫هل هي مشكلة غير محلولة؟ يفضل ان تكون‪ ،‬غير ذلك يجب ان يكون‬ ‫•‬
‫الحل المقترح افضل من الحلول الموجودة‪،‬‬
‫االفضلية هنا لها معايير كثيرة اهمها التكلفة (‪ ،)Cost‬اي ان الحل المقترح‬ ‫•‬
‫اقل تكلفة من الحلول الموجودة‪ ،‬او اكثر منفعة‬
‫التكلفة تعرف حسب حقل البحث العلمي‪ ،‬قد تكون السرعة‪ ،‬او المساحة‪ ،‬او‬ ‫•‬
‫الوقت‪ ،‬الخ‪.‬‬
‫توصيف الفكرة (الحل)‬ ‫•‬
‫التأكد من ان الفكرة تعمل بعد فحصها على بيانات او اثباتها رياضيا‬ ‫•‬
‫مقارنة الفكرة المقترحة مع الحلول الموجودة‬ ‫•‬
‫‪Paper Structure‬‬
‫هيكلية الورقة العلمية‬

‫•‬ ‫عنوان البحث‪ ،‬اسماء المؤلفين‪ ،‬واماكن عملهم ‪Title, Name and affiliation‬‬
‫•‬ ‫ملخص البحث (‪ 4‬جمل اساسية) )‪Abstract (4 sentences‬‬
‫•‬ ‫مقدمة البحث (حول صفحة واحدة) )‪Introduction (1 page‬‬
‫•‬ ‫الدراسات السابقة (حول صفحتان) )‪Related work (1-2 pages‬‬
‫•‬ ‫‪The problem (1 page), My idea (2 pages), The details (5‬‬
‫)‪pages‬‬
‫توصيف المشكلة (‪1‬ص)‪ ،‬توصيف الفكرة (‪2‬ص) التفاصيل (‪5‬ص)‬
‫مناقشة النتائج مع اظهار الدليل على جودة الحل ‪• Results and discussion‬‬
‫االستنتاجات والعمل )‪• Conclusions and future work (0.5 pages‬‬
‫المستقبلي‬
‫الشكر والثناء ‪• Acknowledgement‬‬
‫المراجع‪• References‬‬
‫‪Title‬‬
‫عنوان البحث‬

‫• يجب ان يكون عنوان البحث جيدا وذلك النه‪:‬‬


‫• يعبر عن محتوى الورقة العلمية‬
‫• يلفت انتباه واهتمام القاريء‬
‫• يعكس اسلوب الكتابة‬
‫• جميع الكلمات المكونه له هي كلمات مفتاحية تسهل على عملية‬
‫البحث للحواسيب‬
‫– يتبع العنوان اسماء المؤلفين بالترتيب حسب المساهمة‪ ،‬ثم‬
‫اماكن عملهم وعناوينها‪ ،‬ثم البريد االلكتروني وخصوصا‬
‫للمؤلف مراسل عملية النشر‪ ،‬واحيانا الهاتف والفاكس‬
‫مثال على عنوان بحث جيد‬

Solving the Problem of the K Parameter in KNN


Classifier Using Ensemble Learning Approach
Ahmad B. A. Hassanat1, Mohammad Ali Abbadi2, Ahmad Ali Alhasanat3
1 2IT Department, 1 2 Mu'tah University, Mu'tah – Karak, Jordan, 61710,

3 Al-Hussein Bin Talal University, Maan, Jordan

Email: 1ahmad.hassanat@gmail.com, 2 abbadi@mutah.edu.jo,


‫‪The abstract‬‬
‫الملخص‬

‫• عادة ما يكتب أخرا‬


‫• يستخدم من قبل المحررين لتحديد المحكمين المناسبين‬
‫• يتكون من ‪ 4‬جمل اساسية وهي‪:‬‬
‫ذكر المشكلة بشكل ملخص‬ ‫–‬
‫ذكر الحل المقترح‬ ‫–‬
‫نتائج الحل المقترح‬ ‫–‬
‫تبعات الحل المقترح‬ ‫–‬
‫• معضم المجالت تحدد الملخص ب ‪ 150‬الى ‪ 400‬كلمة كحد اقصى‬
Abstract ‫مثال جيد للملخص‬
This paper presents a new solution for choosing the K
parameter in the k-nearest neighbor (KNN) algorithm, the
solution depends on the idea of ensemble learning, in
which weak a KNN classifier is used each time with a
different K, starting from one to the square root of the size
of the training set. The results of the weak classifiers are
combined using weighted sum rule.
The proposed solution was tested and compared to other
solutions using a group of experiments on real world
problems. The experimental results show that the proposed
classifier outperforms the traditional KNN classifier that
uses different number of neighbors, is competitive to other
classifiers, and is a promising classifier with strong
potential for a wide range of applications.
‫‪Keywords‬‬
‫الكلمات المفتاحية‬

‫• الهدف منها هو دعم المعلومات المقدمة من العنوان ‪.‬‬


‫• كلمات العنوان تضمن في فهارس قواعد البيانات تلقائيا‬
‫• تقدم هذه الكلمات مؤشرات اضافية لفهرسة قواعد البيانات‬
‫• لذلك يجب ان ال نستخدم نفس الكلمات الموجودة في العنوان‬
‫•عددها من ‪ 3‬الى ‪ 10‬كلمات حسب المجلة او المؤتمر‬

‫مثال على الكلمات المفتاحية‬


‫‪Keywords: AI, supervised learning, machine learning‬‬
‫‪1. introduction‬‬
‫المقدمة (حوال صفحة واحدة)‬

‫• اكتب وصف المشكلة مدار البحث‬


‫• اكتب كيف ستحلها‬
‫• وهذا كل شيء‬
‫مثال على مقدمة جيدة‬
1. Introduction
The nearest neighbor approach was first introduced by (Fix & Hodges, 1951)
and later studied by (Cover & Hart, 1967). This approach is one of the simplest
and oldest methods that used for pattern classification. It often yields efficient
performance, and in certain cases, its accuracy is higher than the state-of the-art
classifiers (Hamamoto, Uchimura, & Tomita, 1997) (Alpaydin, 1997).
There are two major problems inherited by the design of the KNN (Guo, Wang,
Bell, Bi, & Greer, 2003) and (Bhatia & Vandana, 2010) :
1. There is no output trained model to be used, the algorithm has to use all the
training examples on each test, therefore its time complexity is linear O(n).
2. Its classification performance depends on choosing the optimal number of
neighbors (k), which is different from data sample to another.

The purpose of this study is to solve the second problem, by removing the need
for using a specific k with the classifier. ….etc.
‫‪Related work‬‬
‫الدراسات السابقة‬

‫• خطأ شائع‪ :‬حتى اجعل عملي يبدو جيدا يجب ان اظهر ان اعمال االخرين سيئة‬

‫• اعطاء الفضل العمال االخرين ال يمحي افضلية عملك اذا كان جيدا‬
‫• اشكر واثني على االشخاص الذين ساعدوك‬
‫• كن كريما مع المنافسين لعملك من الدراسات التي سبقتك‪ :‬مثال‬
‫‪“In his inspiring paper [Foo98] Foogle shows.... We develop his‬‬
‫”‪foundation in the following ways...‬‬
‫• اعترف واظهر المشاكل التي ترافق الحل الذي تقترحه‪ ،‬مهما كان الحل جيدا‬
‫فالبد من وجود ثغرات‪ ،‬بينها للقاريء‬
‫‪2. Related work‬‬
‫الدراسات السابقة‬
‫ارجع الى احدث الدراسات في افضل المجالت والمؤتمرات‬ ‫•‬
‫يمكن ان تعود بالزمن كثيرا الى الوراء الظهار اول حل معروف للمشكلة‬ ‫•‬
‫عدم النسخ واللصق مباشرة من االوراق االخرى‪ ،‬الن ذلك يعتبر غشا‪ ،‬ويسهل‬ ‫•‬
‫اكتشافه من قبل برامج ( ‪ )Plagiarism‬واذا تم ذلك يكون بين عالمتي تنصيص‬
‫”“ واالفضل اعادة صياغة الفكرة باسلوبك وفهمك الخاصين‪.‬‬
‫عن كل دراسة ترجع اليها‪ ،‬اكتب باختصار‪:‬‬ ‫•‬
‫الحل الذي تم اقتراحه‬ ‫–‬
‫الطرق والمنهجية المستخدمة‬ ‫–‬
‫البيانات المستخدمة‬ ‫–‬
‫نتائج الدراسة‬ ‫–‬
Related work, ‫مثال على الدراسات السابقة‬
There are many studies, which have attempted to solve the
first problem, depending on reducing the size of the
training (Hart, 1968), (Gates, 1972), (Alpaydin, 1997),
(Kubat & Jr, 2000) and (Wilson & Martinez, 2000).
Hart proposed a simple local search method called the
“Condensed Nearest Neighbour (CNN)” this method
attempts to minimize the number of stored examples
and stores only a subset of the training set to be used for
classification later. Their idea is based on removing the
similar redundant examples (Hart, 1968).
‫‪3. The proposed work‬‬
‫الحل المقترح (مساهمتك العلمية)‬
‫• عرف المشكلة واكتب عنها باسهاب‬
‫• وصف الحل المقترح باسهاب واستخدم جميع الوسائل الممكنه لتوضيحه‬
‫وهي‪:‬‬
‫( ‪ )Figures‬الصور اوالرسومات اوالمخططات التوضيحية‬ ‫–‬
‫( ‪ )Tables‬الجداول‬ ‫–‬
‫( ‪ )Algorithms‬الخوارزميات‬ ‫–‬
‫( ‪ )Examples‬االمثلة‬ ‫–‬
‫(‪ )Equations‬المعادالت الرياضية‬ ‫–‬

‫• وصف البيانات التي ستستخدمها‬


‫• اثناء الكتابة هنا ال تكف عن االستشهاد باعمال االخرين‬
Figures ‫مثال على‬
‫اثناء الكتابة‬
‫اشر الى الرسم‬
:‫مثال‬
)See Figure 2(

‫كل رسم له رقم‬


‫متسلس ووصف تحته‬
Figure 2. Simple example showing the proposed classifier
Algorithms ‫مثال على الخوارزميات‬
‫كل خوارزمية لها رقم‬
------------------------------------------------------------------------------------------------------------
Algorithm 1: the proposed ensemble KNN classifier ‫متسلس ووصف فوقها‬
‫ومدخالت ومخرجات‬
------------------------------------------------------------------------------------------------------------
Input: training data set TD, test example TE
Output: class’s index
1. Array Distances[Size(TD)]
2. index=0
3. For each example as E in TD {
4. Distances[index]=distanc(E,TE)//any distance function
5. index=index+1
6. }
7. K=sqrt(Size(TD))
8. Array minClasses[k]
9. minClasses = classes (min k Distances) //ordered by
distance
10.Array SW[number of classes in TD]// weight sum for each
class
11.Initililze SW// fill with zeros
12.for i=1 to k , i=i+2
13. for j=1 to i , j=j+1
14. SW[minClasses[j]]=classes[minClasses[j]]+1/Log(1+j,2)
15.return argmax(classes)
------------------------------------------------------------------------------------------------------------
‫‪Equations‬‬
‫المعادالت الرياضية‬

‫• يمكنك ان تستخدم اي برنامج لتحرير المعادالت الرياضية ومن اشهرها محرر‬


‫ميكروسفت للمعادالت الرياضية والموجود ضمن برنامج تحرير النصوص الخاص‬
‫بشركة ميكروسفت‪ ،‬وذلك من خالل االمر ‪(insert, equation) :‬‬

‫• كل معادلة يجب ان يكون لها رقم متسلس وكذلك الرسومات والجداول‬


‫• المعادلة رقمه الى اليمين‪ ،‬والجدول فوق مع وصف الجدول والرسومات تحت الرسم‬
‫مع وصف الرسم مثال على المعادالت‪:‬‬

‫)‪(1‬‬
‫توصيف البيانات المستخدمة‬

‫• احيانا يكون الموقع بعد وصف الحل المقترح (الفرع الثالث) او في بداية‬
‫فرع مناقشة النتائج (الرابع)‬

‫• هذه البيانات يمكن ان تكون اوجدت بواسطتك او بيانات قياسية اخذت من‬
‫الدراسات السابقة لتسهل مقارنة الحل المقترح مع الحلول االخرى (غالبا)‬
‫مثال على توصيف البيانات المستخدمة‬
we chose 28 different data sets represent real world
classification problems, taken from the UCI Machine Learning
Repository (Bache & Lichman, 2014). Table 1 depicts the data
sets used. ‫كل جدول له رقم‬
‫متسلس ووصف فوقه‬
Table 1. Description of the data sets used.
Name #examples #features #classes data type Min Max
Heart 270 25 2 mostly integer 0 564
Balance 625 4 3 pos integer 1 5
Cancer 683 9 2 pos integer 0 9
German 1000 24 2 pos integer 0 184
Liver 345 6 2 pos integer 0 297
Vehicle 846 18 4 pos integer 0 1018
‫‪4. Results and discussion‬‬
‫النتائج ومناقشتها‬

‫في المقدمة ادعيت انك ستقدم حال جيدا للمشكلة‬ ‫•‬


‫جسم الورقة البحثية يجب ان يقدم دليال علميا لدعم ادعائك‬ ‫•‬
‫تأكد من كل ادعاء في المقدمة وحدد دليله العلمي‬ ‫•‬
‫الدليل يمكن ان يكون‪ :‬تحليل ومقارنة‪ ،‬فرضيات مثبتة‪ ،‬قياسات‬ ‫•‬
‫معينة‪ ،‬حاالت دراسية‪ ،‬وغالبا تجارب علمية‬
‫‪4. Results and discussion‬‬
‫النتائج ومناقشتها‬

‫وصف بروتوكول التجربة‪ ،‬واالفتراضات‪ ،‬والبيئة‪ ،‬والبيانات‪ ،‬وغيرها‬ ‫•‬


‫وهذا أمر مهم لمبدأ اعادة استنساخ التجربة ( ‪)Reproducibility‬‬
‫ناقش النتائج وبرر لماذا هي جيدة او سيئة او متوسطة الخ‬ ‫•‬
‫مقارنة النتائج مع اآلخرين إذا وفقط إذا استخدموا نفس البيانات في نفس‬ ‫•‬
‫الظروف‪ ،‬غير ذلك ناقش نتائجهم وبين سبب االختالف‬
‫أخالقيات البحث العلمي‪ ،‬ال تلعب هنا ابدا‪ ،‬اي ال تغش النتائج لتظهر ان‬ ‫•‬
‫عملك افضل‪ ،‬فمن السهل معرفة ذلك من قبل المحررين والمحكمين‬
‫والقراء النهم مختصون‬
4. Results and discussion
‫مثال على فرع النتائج ومناقشتها‬
Table 2. The results of the proposed classifier compared to other classifiers,
accuracies are the average of 10 runs.
Dataset 1-NN 3-NN 5-NN 7-NN 9-NN √n -NN 30-NN 45-NN 60-NN IINC Proposed
Australian 0.80 0.86 0.87 0.86 0.86 0.86 0.85 0.86 0.86 0.87 0.87
Balance 0.80 0.80 0.83 0.85 0.86 0.88 0.88 0.88 0.88 0.88 0.86
Banknote 1.00 1.00 1.00 1.00 1.00 0.98 0.98 0.97 0.96 1.00 1.00
BCW 0.97 0.97 0.96 0.96 0.96 0.95 0.96 0.96 0.95 0.95 0.96
Cancer 0.96 0.97 0.97 0.96 0.97 0.96 0.96 0.96 0.95 0.95 0.96
Diabetes 0.69 0.72 0.73 0.74 0.75 0.76 0.76 0.76 0.75 0.74 0.74

As can be seen from the results, there is no optimal k, as there is no specific number of
neighbors that is suitable for all datasets to be used with nearest neighbor rule. Each
data set favor a specific number (k) of neighbors, this note justifies the proposed method,
which attempts to use the power of each classifier, and employs it to enhance the overall

performance of the proposed method.


‫‪5. Conclusions‬‬
‫االستنتاجات‬
‫االستنتاجات يجب ان‪:‬‬
‫• تؤكد على أهمية الورقة البحثية‬
‫• إعطاء الورقة الشعور باالكتمال‬
‫• ترك االنطباع النهائي على القارئ‬
‫مثال جيد على االستنتاجات‬

This work proposes a new classifier based on the KNN classifier, which
solves the problem of choosing the number of neighbors that participate
in the final decision using the majority rule of the nearest neighbor
approach. The proposed method makes use of the ensemble learning
approach, where the traditional KNN is used with different number of
neighbors each time.
The experimental results using variety of data sets of real world
problems have shown superiority of the proposed method over the
tradition KNN using variety of k neighbors. In addition, the proposed
method was found completive to other classifiers such as the IINC
classifier. Moreover, we have shown that the speed of the proposed
method (linear time) was found to be better than that of the IINC which
is logarithmic linear time.
Future work
‫العمل المستقبلي‬

: ‫ وذلك باستخدام‬،‫• أذكر بإيجاز كيفية تحسين الورقة اكثر‬


‫طرق ومنهجيات مختلفة‬ –
‫مزيدا من البيانات لتقديم مزيدا من الدعم الدعاءاتك‬ –
‫جوانب ناقصة‬ –
‫افتراضات أقل‬ –
.‫إلخ‬ –

‫مثال جيد على العمل المستقبلي‬

There is room for enhancing the complexity time of the proposed method
using KD-trees (Bentley, 1990) or other hashing technique (Indyk &
Motwani, 1998) and (Andoni & Indyk, 2008), this effort is left to be done in
the future
‫‪References‬‬
‫المراجع‬

‫• نحتاج المراجع ل ‪:‬‬


‫– لتمييز أفكارك عن افكار شخص آخر‪.‬‬
‫– لالستشهاد بوجهات نظر مختلفة‪.‬‬
‫– للتحقق من صحة ما تكتبه‪ ،‬وذلك بالرجوع إلى األدلة الموثقة‪ .‬األعمال‬
‫المنشورة على سبيل المثال يمكن أن تستخدم لدعم حجتك وتضفي‬
‫مصداقية على كتاباتك‪.‬‬
‫– إلعالم القراء عن نطاق وعمق قراءتك‪.‬‬
‫المراجع (‪)References‬‬

‫عادة ما نستشهد ب‪:‬‬ ‫•‬


‫كتاب (‪ :)Book‬المؤلفون‪ ،‬عنوان الكتاب‪ ،‬الناشر‪ ،‬تاريخ النشر‪،‬‬ ‫•‬
‫وأرقام الصفحات‬
‫مجلة (‪ :)Journal‬المؤلفون ‪ ،‬عنوان المقال‪ ،‬عنوان المجلة‪ ،‬تاريخ‬ ‫•‬
‫النشر‪ ،‬المجلد واالصدار ورقم الصفحة‬
‫مؤتمر (‪ : )Conference‬المؤلفون ‪ ،‬عنوان المقال‪ ،‬اسم المؤتمر‪،‬‬ ‫•‬
‫المدينة‪ ،‬تاريخ النشر‪ ،‬ورقم الصفحة‬
‫صحيفة (‪ :)Newspaper‬المؤلفون‪ ،‬عنوان المقال‪ ،‬اسم الصحيفة‪،‬‬ ‫•‬
‫عنوان القسم والصفحة وتاريخ النشر‪.‬‬
‫موقع على شبكة اإلنترنت (‪ :)Website‬المؤلفون‪ ،‬عنوان المقال‪،‬‬ ‫•‬
‫وكذلك العنوان االلكتروني )‪ ،)URL‬والتاريخ الذي تم فيه الوصول‬
‫إلى الموقع‪.‬‬
‫مقابلة (‪ :)Interview‬اسم المقابل‪ ،‬وصف المقابلة وتاريخ المقابلة‪.‬‬ ‫•‬
‫المراجع (‪)References‬‬

‫• استخدام برامج إدارة المراجع واالقتباس‪ ،‬برنامج ميكروسفت‬


‫لمعالجة النصوص يمكنك من ذلك‬
‫• استخدم االمر‪:‬‬
‫‪• references‬‬
‫‪• insert citation‬‬
‫‪• add new source‬‬
‫• ثم امأل المعلومات في النموذج كما في الشريحة السابقة‬
‫حاول دائما الحصول على المساعدة‬

‫التدقيق النحوي واالمالئي ويفضل االستعانة بخبير‬ ‫•‬


‫اجعل اكبر عدد من االصدقاء يقرأون ورقتك‬ ‫•‬
‫اهتم بكل مراجعة لورقتك من اي شخص وكن ممنونا للنقد كما‬ ‫•‬
‫الحمد‬
‫استمع بجدية للمحكمين‪:‬‬ ‫•‬
‫– اقرأ كل انتقاد على انه اقتراح إيجابي‬
‫– ال تجيب على اقتراحات المحكمين بالفاظ جارحة مثال ”انت غبي“‬
‫– اشكر المحكمين بحرارة النهم منحوك الكثير من وقتهم ‪.‬‬
‫‪Publishing‬‬
‫النشر‬
‫• اختر المجلة بعناية‬
‫• تأكد من أن نطاق المجلة (‪ )Scope‬يناسب موضوعك‬
‫• التطمح للنشر في المجالت عالية المستوى كمبتديء‬
‫• المجلة الجيدة اما ان تكون منشورة من قبل ناشر كبير أو مفهرسة‬
‫في خدمة فهرسة جيدة‬
‫• تجنب المجالت المخطوفة والمجالت االستغاللية‬
‫(‪)predatory journals‬‬
‫‪Essential Science IndicatorsSM from Thomson‬‬
‫‪Reuters‬‬
‫اهم الناشرون في العالم‬
• Thompson
• Elsevier
• Springer
• Wiley-Blackwell,
• Taylor & Francis
• Sage
• IEEE
• ACM
• Hindawi, etc.
‫• او اية جامعة ذات سمعة اكاديمية جيدة‬
Indexing services
‫اهم الفهارس العالمية‬
• ISI -Thompson (Impact factor )
• Scopus – Elsevier
• PubMed
• Google scholar (h-index)
• Ulrich
• CiteSeer
• The Directory of Open Access Journals (DOAJ)
• ProQuest
• EBSCOhost
• JSTOR
• Etc.
‫‪Impact factor‬‬
‫معامل التأثير‬
‫• حتى يكون للمجلة معامل تأثير يجب أن تكون مفهرسة في )‪ )Thompson ISI‬الن‬
‫”معامل التأثير" عالمة تجارية ل ) ‪ )Thompson‬فقط‬
‫• ليس كل مجلة لها ”معامل تأثير" وهذا ال يعني انها ليست جيدة‬
‫• يمكن حساب معامل التأثير لمجلة ما في عام ‪ 2008‬كالتالي ‪:‬‬
‫معامل التأثير = أ\ب‬
‫حيث‪:‬‬
‫– أ = مجموع عدد االستشهادات التي تلقتها جميع األبحاث المنشورة في تلك المجلة خالل سنوات‬
‫‪ 2006‬و ‪2007‬‬
‫– ب = عدد المواد التي يمكن االستشهاد بها والتي نشرت في أبحاث المجلة خالل األعوام ‪ 2006‬و‬
‫‪2007‬‬
‫– يمكن القول انه كلما كان المعامل اكبر كانت المجلة افضل ولكن عملية التحكيم تأخذ وقتا اطول‬
‫ونسبة الرفض تزداد‪.‬‬
‫احد ادوات ايجاد المجلة المناسبة‬
‫‪Journal finder‬‬
‫• هناك أداة من (‪ )Elsevier‬تمكن الباحثين من العثور على أفضل مجلة ألبحاثهم عن طريق‬
‫إدخال العنوان‪ ،‬والملخص عن عملهم‪ ،‬والنظام يعثر لهم على أفضل مجلة‪ .‬مثال‪:‬‬
2006 ‫المجالت العشرة األكثر اقتباسا عام‬

(Thomson Scientific Journal Citation Reports) :‫المصدر‬

Citations Rank for


Rank Journal
in 2006 2005
1 Journal of Biological Chemistry 410,903 1
2 Nature 390,690 2
3 Proc. Natl. Acad. Sci. USA (PNAS) 371,057 3
4 Science 361,389 4
5 J. American Chemical Society 275,769 5
6 Physical Review Letters 268,454 6
7 Physical Review B 212,714 7
8 New England Journal of Medicine 177,505 8
9 Astrophysical Journal 162,136 9
10 Journal of Chemical Physics 157,334 10
‫مجالت الحاسوب العشرة األكثر اقتباسا عام ‪2008‬‬
‫المصدر‪(Thomson Scientific Journal Citation Reports) :‬‬
‫ البلدان العشرة األوائل‬- ‫الناتج العلمي‬

Rank Country Papers


1998-2008

1 United States 2,798,448


2 Japan 757,586
3 Germany 723,804
4 England 641,768
5 France 517,096
6 People's Republic of China 511,216
7 Canada 388,471
8 Italy 370,053
9 Spain 271,753
10 Russia 262,982

Essential Science IndicatorsSM from Thomson Reuters :‫المصدر‬


‫ البلدان العشرة األوائل‬- ‫االثرالعلمي‬
Papers Avg. citations per
Rank Country
1993-2003 paper

1 Switzerland 142,982 13.24


2 United States 2,799,593 12.63
3 Netherlands 202,184 11.33
4 Denmark 79,929 11.14
5 Sweden 158,136 10.85
6 Scotland 96,571 10.75
7 England 619,707 10.74
8 Canada 370,928 10.25
9 Finland 74,106 10.17

10 Belgium 103,181 9.74

Essential Science IndicatorsSM from Thomson Reuters :‫المصدر‬


‫مراجع المحاضرة‬

• http://research.microsoft.com/en-
us/um/people/simonpj/papers/giving-a-talk/writing-a-
paper-slides.pdf
• http://www.dentistry.leeds.ac.uk/elective/WRITE%20UP.htm
• https://en.wikipedia.org/wiki/Citation
• Hassanat, Ahmad, et al. "Solving the problem of the K
parameter in the kNN classifier using an ensemble learning
approach." International Journal of Computer Science and
Information Security, 12(8), 2014 , pp. 33-39.
• http://journalfinder.elsevier.com/
• https://www.timeshighereducation.com/news/top-
journals-in-computer-science/406557.article
• http://scientific.thomson.com/ts/products/esi/
• Essential Science IndicatorsSM from Thomson Reuters

You might also like