TensorFlow

Hello everybody, in this blog i want to talk about one of the free and most used open source deep learning library called TensorFlow. So why do we call it as open source? Open source allows the user to view and edit the codes of the software and to inform the user about program development. So you can easily create models with tensorflow, access machine learning pipeline with TensorFlow Extended (TFX), and train and deploy models in JavaScript environments with TensorFlow.js. You can also create complex topologies with features such as Functional API and Model Subclassing API.

What is TensorFlow?

TensorFlow was developed by Google Brain team initially to conduct machine learning and deep neural networks research and in 2015 TensorFlow codes were made available to everyone.TensorFlow is a library used for numerical computation using data flow charts in mathematics and if the literal meaning of tensor is a geometric object in which multidimensional data can be symbolized.

As you see above, tensors are multidimensional arrays that allow you to represent only higher dimensional datas. In deep learning, we deal with high-dimensional data sets where dimensions refer to different properties found in the data set.

Usage examples of TensorFlow

1)TensorFlow can be used efficiently in sound base applications with Artificial Neural Networks. These are; Voice recognition, Voice search, Emotion analysis and Flaw detection.

2) Further popular uses of TensorFlow are, text based applications such as sentimental analysis (CRM, Social Media), Threat Detection (Social Media, Government) and Fraud Detection (Insurance, Finance).As an example PayPal use TensorFlow for fraud detection.

3) It can also be used in Face Recognition, Image Search, Image Classification, Motion Detection, Machine Vision and Photo Clustering, Automotive, Aviation and Healthcare Industries.As an example Airbnb uses TensorFlow to categorize images and improve guest experience.

4) TensorFlow Time Series algorithms are used for analyzing time series data in order to extract meaningful statistics. As an example Naver automatically classifies shopping product categories with tensorflow

5) TensorFlow neural networks also work on video data. This is mainly used in Motion Detection, Real-Time Thread Detection in Gaming, Security, Airports and UX/UI fields.As an example Airbus uses tensorflow to extract information from satellite imagery and provide insights to customers.

Where can i learn TensorFlow?

You can join course “Introduction to TensorFlow for Artificial Intelligence, Machine Learning, and Deep Learning” on Coursera and “Intro to TensorFlow for Deep Learning” on Udacity for free.Tutorials for beginners and experts are available on TensorFlow’s official site.   You can find Mnist data set and other “Hello World” examples that I also have applied before.

As a result, we talked about the meaning of the word tensorflow, what tensorflow is, the usage areas of tensorflow and how we can learn. As it can be understood from the blog, world-leading companies prefer tensorflow for many things such as image classification, voice recognition, disease detection. Step into this magical world without wasting time! Hope to see you in our next blog…

REFERENCES

https://www.tensorflow.org/?hl=tr

https://www.biltektasarim.com/blog/acik-kaynak-kodu-nedir

https://devhunteryz.wordpress.com/2018/06/27/tensorflowun-temeli-mantigi/

https://tr.wikipedia.org/wiki/Tens%C3%B6r

http://devnot.com/2019/tensorflow-nedir-nasil-kullanilir/

https://www.exastax.com/deep-learning/top-five-use-cases-of-tensorflow/#:~:text=Voice%2FSound%20Recognition,Automotive%2C%20Security%20and%20UX%2FUI

 

 

 

The Story of Artificial Intelligence

The story of artificial intelligence dates back to antiquity. Classical philosophers who worked to explain human thinking as a mechanical process of manipulating symbols, essenced the idea of AI technology afterwards. Significantly, with the invention of programmable computers in 1940; scientist took such philosophy a step forward and began to research whether it is possible to build an electronic brain which functions like the human brain.The period of tremendous technological developments accelerated with World War 2 has lasted 20 years after 1940 and it has been the most important era for the birth of AI. 

During such period important works on relating the machine and human functions together have been put forward. Cybernetics had an important role in such work. According to the leader of the area, Norbert Wiener, the aim of cybernetics was to create a theory that can be used to understand the control and communication mechanisms of both animals and machines. Moreover, in 1943, Warren McMulloch and Walter Pitts created the first computer and mathematical model of the biological neuron. With analyzing the developed models of neurons and their networks, they improved logical functions that worked with idealized artificial neurons. Such invention was the foundation of today’s neural networks.

Computing Machinery and Intelligence by Alan Turing.

Retrieved from: https://quantumcomputingtech.blogspot.com/2018/12/turing-computer-machinery-and.html

 

The well-known works like “Computing Machinery and Intelligence” by Alan Turing which question the possible intelligence of a machine, have been put forward at the beginning of 1950. Alan Turing answered such question in his paper with the test called the Turing Test. Such Test suggested that if computers come to a place where they can’t be distinguished with humans in a conversation, now that it can be said that they are thinking like humans. Even though there have been many arguments on such test, it is known as the first serious philosophical claim on AI.  Alan Turing’s work with John Von Naumann had a significant influence on AI’s future, also. Although their work was not referred to as AI, it had the main logic behind it. They have put forward decimal and binary logics of computers and showed that computers can universally be used on execution of programs. 

The term and the discipline of ‘AI’ was founded in the Summer Conference in Dartmouth College, 1956; especially in a workshop organized during the conference. The 6 participants of the workshop, including John McCharthy and Marvin Minsky, became the leaders of AI discipline for the following years. They have foreseen that a machine that thinks like a human can be developed in not much time and have been funded for such vision. After such significant workshop, important works have been put forward – such as programs of reasoning in search, natural language and micro-worlds – sophisticated new programs led computers to execute mathematical, geometrical problems and learn languages.  Such influential works increased the optimism about AI’s future. According to one of the AI leaders of the era Marvin Minsky, for only in one generation artificial intelligence would be solved to a great extent. 

The future leaders of AI in Dartmouth Summer Conference, 1965.

Retrieved from: https://medium.com/cantors-paradise/the-birthplace-of-ai-9ab7d4e5fb00

 

However, the optimism did not last for so long. The critics on the area of AI have arisen fast especially at the beginning of 1970’s. Such critics mainly concentrated on the relatively slow progress the area is taking in the era of over anticipation. Eventually, governmental fundings on the researches have been cut and there began a serious slow back in AI advancement that is known as the ‘First AI Winter’. After a period of slow progress on AI technologies, in the 1980’s the advancement of expert systems – a computer that has the knowledge about a subject as its expert – and the invention of microprocessors started the acceleration in the advancement on AI again, fundings started to be directed again especially on the information based expert systems. However, even though such projects had significance on the history of artificial intelligence, ‘Second AI Winter’ started in the 1980’s due to similar criticisms and irrational over hype. Fundings were cut again in the late 1980’s and early 1990’s, such periods were financially difficult times for AI researchers. For instance, the articles related to AI in the New York Times started to decrease in 1987 and had its lowest point in 1995. 

Deep Blue vs. Gary Kasparov

Retrieved from: https://www.theguardian.com/technology/2017/dec/07/alphazero-google-deepmind-ai-beats-champion-program-teaching-itself-to-play-four-hours

 

Even in such difficult times, developments in the area continued. With the help of Moore’s Law’s applications, computers had much higher capacities while working faster than ever. Also, other concepts’ implications in computer science, such as probability, decision theory, Bayesian networks and many more, had strong influence in AI’s development. Eventually in 1997, IBM’s expert system Deep Blue defeated chess grandmaster Gary Kasparov. Especially for gaining  anticipation again, such victory was also an important milestone in AI history.
After such, as it is known the advancements in the 2000’s and especially 2010’s were exponential with the help of tremendous amounts of data and much faster processing systems. In 2020, loads of new articles are published about new AI researches and developments everyday. Furthermore, the up and downs explained in the history of AI, created the advanced technology that it is today. 

References 
https://www.coe.int/en/web/artificial-intelligence/history-of-ai
http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/
https://towardsdatascience.com/history-of-the-second-ai-winter-406f18789d45
https://www.techopedia.com/what-is-the-ai-winter-and-how-did-it-affect-ai-research/7/33404#:~:text=The%20%E2%80%9Cwinter%E2%80%9D%20has%20been%20blamed,expensive%20Lisp%20machines%20in%20performance.

Veganism and Artificial Intelligence

Veganism and artificial intelligence are good topics to discuss because they look mysterious to me. We know how artificial intelligence is everywhere but what about the relationship between veganism, do we know about it?
I was a vegetarian for a few years and, to be honest, it was one of my good diets. Actually, Turkey is often associated with cuisines made up out of meat but also we have many non-meat dishes. Okay, if I turn back to our topic is I wonder about how artificial intelligence can affect veganism whether in a good or bad way. However, first, let’s have a look at what does vegan means.

What is veganism?


The term “vegan” was chosen by combining the first and last letters of “vegetarian.” It is an undeniable fact is that being vegan is really popular whether its purpose is for health or for caring about animals. Of course, behind being vegan, there are different kinds of reasons such as ethics, health, and environment.
This is not for a few months, this is a lifestyle and vegan people prefer to not consume all animal and animal products such as dairy, eggs, cheeses, meats, fishes, etc. However, this situation should not consign you that they have to eat just vegetables and fruits – because it is totally wrong! For example:

  • Beans
  • Lentils
  • Tofu
  • Hummus
  • Seeds
  • Plant milk
  • Whole grains

Those are just a few examples of foods that they can consume.
Before finishing a short explanation of veganism, I would like to add some bullet points of types of veganism:

  • Whole-food vegans
  • Raw-food vegans
  • Dietary vegans

What does Artificial Intelligence have an impact on veganism?

There is a huge investment in plant-based industry and I think in the future many big companies/businesses will be involved in it more than before. Well, this investment is not only for food, but it is also for clothes, shoes. Sometimes, I get advertisements or see comments related to “vegan clothes”, “vegan creams”, etc. on my social media accounts – I think it is because I am interested in these areas.

If you would like to learn more about advertisement, you can have a read this article:
https://globalaihub.com/ai-for-advertisements/

According to my research, what I have seen is that artificial intelligence can positively impact. As all we know, we are having difficult moments due to the pandemic and it will not be the last and we will not live on this planet forever also because of climate change. There is a question from my side is that does the plan-based product really mean healthy? I mean if we talk about the health factor of being vegan, the products are supposed to be healthy – if they are not, so where is the purpose of this health factor? I think there are many points that shape things whether we realize them or not.

Some Examples:

While some questions arise, if the companies are going to produce plant-based products first they need to start to search the planet for eligible plants. After that for sure, the analysis step will be required. As you assume, we talk about the whole planet so it means they need “scientists” and some “specific processes” to deal with a huge dataset. How AI can help is that it has the capacity to process complex algorithms to predict. Moreover, AI can find combine different recipes easily and predict which ones will be loved by humans based on human behaviors because also those behaviors are data that AI used.
The other part is we need to be careful about what we eat because of our body system. We need to have a balance between protein, carbohydrate, and etc., and what has been thought us is animal products have necessary molecules for our bones for example. So, the companies should find something to replace animal products and for it, AI helps to produce cheaper and tastier options for consumers.

Resources

https://www.healthline.com/nutrition/what-is-a-vegan#types
https://theveganreview.com/artificial-intelligence-is-boosting-the-plant-based-industry/

WordCloud and Sentiment Analysis with Python

One of the most popular concepts of our day is the word cloud and the work done on it. People use the nltk library to experiment with the word cloud. The aim here is to process the processes before the natural language processing phases. Since the Python programming language reaches a wider audience every day, the variety of projects made with nltk is increasing. Beginners often analyze tweets posted on Twitter on any topic and make visualizations, analyzes and inferences from it. While creating a word cloud, one of the key points is the number of repetitions. The more the word repeats, the more prominent it becomes in the word cloud. I tried to explain your research with the image below. Here the part indicated with q is the part of the word or phrase you are looking for. To do this, you must first have a Twitter Developers account. In addition, you will be providing the link here as we will pull it from here. Through the link, you can pull tweets to your local workplace and take action on them.

 
As can be seen in the photo above, the most critical part of the job is to set up the def structure well and decide on which variables to label. You can save the token and key values ​​somewhere and withdraw from there. Here, I did not show the key values ​​due to privacy, but once you have a Twitter Developer account, you can access these values ​​yourself and make the necessary assignments. If you want to access specific values ​​while analyzing on Twitter, you can make custom searches. I will put the necessary documentation in the Resources section, you can review it according to your request and integrate it into your own code and analysis. If I need to give extra information, there are several methods in nltk we will use. One of the ones I use individually is “stopwords” and the other is “wordnet”. You can change the English option according to the language you want to work on. It is a comprehensive English language in terms of word strength and effectiveness. If you are working on your own language and have a great collection of words, you can specify it in the comments tab. Thus, we can keep the interaction high and increase the yield rate. You can observe the part I explained here in the image below.

 
I chose the word ‘samsung’ for the Word Cloud study. By entering the abbreviation of the language option in the Lang section, you can pull the hashtag data you have chosen to your work area. At first we add the necessary libraries, and then we can change the background color we will work with according to your personal wishes. In addition, if you set the plt.axis value to “on”, you can observe the frequency of repeating words. Since I did this with the highlighting method myself, I found it unnecessary to show the axes as extra. What I do here is to set up a basic wordcloud structure and to gain something even at your entry level. If you have a career planning for natural language processing, you can see it as a start and continue to improve by following the necessary notes. The word cloud structure is the bottom tab of these jobs. While I teach you as a junior, I also continue to work in this field myself. The natural language processing career is an area where you need to stay up-to-date on what others are doing, how they code, and what projects are done on platforms such as large-scale resource browsing and github.

I’ll show you an entry-level sentiment analysis, which I will mention in the last part. Before starting what I will explain here, when writing code in Python, you need to set up the def patterns well and feed your code into it here. Accelerating functional processes and writing an understandable, scalable code for people who will come after you while working in the future will benefit everyone. By writing clean code with def structures, you can easily transfer what you do there to the person who comes for you. Going back to the sentiment analysis, here we can already do this scoring work via the textblob library. TextBlob classifies it as a result of the content of tweets sent on Twitter and the positive – negative words of this content. After this classification, it gives you a ready-made column for analysis. You can analyze this according to your wishes and try different studies. For example, you can chart it, observe the number of repetitive words and take the differences with these values ​​and integrate the background into a picture you have edited yourself.
 

References:
-https://globalaihub.com/sentiment-analysis-with-naive-bayes/
-https://globalaihub.com/duygu-analizi-nedir/
-https://www.veribilimiokulu.com/
-https://amueller.github.io/word_cloud/
-https://www.datacamp.com/community/tutorials/wordcloud-python
-https://monkeylearn.com/sentiment-analysis/

Python ile Twitter Üzerinden Kelime Bulutu ve Sentiment Analizi Çalışması

Günümüzün en popüler kavramlarından birisi, kelime bulutu ve onun üzerinden yapılan çalışmalardır. İnsanlar kelime bulutu üzerine denemeler yaparken nltk kütüphanesini kullanırlar. Burada amaç doğal dil işleme evrelerinden öncesinde yapılan işlemlerdir. Python programlama dili, her geçen gün daha geniş kitlelere ulaştığı için nltk ile yapılan projelerin çeşitliliği artmaktadır. Başlangıç seviyesinde olan insanlar, genellikle Twitter üzerinde herhangi bir konu üzerine atılan tweetleri analiz eder ve onun üzerinden görselleştirmeler, analizler ve çıkarımlar yaparlar. Kelime bulutu oluşturacak olurken kilit noktalardan birisi de tekrar sayılarıdır. Kelime ne kadar tekrar ederse, kelime bulutu içerisinde kendisini belirgin etme durumu daha ön plana çıkar. Yapacağınız araştırmaları, aşağıdaki görsel ile anlatmaya çalıştım. Burada q ile belirtilen kısım, aratacağınız kelime ya da cümlenin olduğu kısımdır. Bunları yapabilmek için öncelikle Twitter Developers hesabınızın olması gerekmektedir. Ek olarak buradan çekeceğimiz için bağlantıyı buradan sağlıyor olacaksınız. Bağlantı aracılığıyla tweetleri kendi local çalışma yerinize çekerek üzerinde işlemler yapabilirsiniz.
 

Üst taraftaki fotoğrafta da görüldüğü gibi işin en kritik kısmı, def yapısını iyi bir şekilde kurmak ve hangi değişkenler üzerinde etiket yapacağınıza karar vermektir. Token ve key değerlerini bir yere kaydedip oradan çekebilirsiniz. Burada ben gizlilikten ötürü key değerlerini göstermedim fakat Twitter Developer hesabınız olunca, bu değerlere kendiniz erişebilir ve gerekli atamaları yapabilirsiniz. Twitter üzerinde analiz yaparken spesifik değerlere erişmek isterseniz, özel aramalar yapabilirsiniz. Kaynaklar kısmında gerekli dokümantasyonu bırakacağım oradan isteğinize göre inceleyip kendi kodunuza ve analizinize entegre edebilirsiniz. Ekstra bilgi vermem gerekirse, kullanacağız nltk içerisinden birkaç metot bulunmaktadır. Benim bireysel olarak kullandıklarımdan birisi ‘stopwords’ bir diğeri ise ‘wordnet’tir. İngilizce seçeneğini üzerine çalışacağınız dile göre dilediğiniz gibi değiştirebilirsiniz. Kelime sağlamlığı ve etkinliği bakımından geniş kapsamlı olan İngilizce dilidir. Kendi diliniz üzerinde çalışırken tam anlamıyla kaliteli bir sözcük topluluğu varsa, yorumlar sekmesinden belirtebilirsiniz. Böylece etkileşimi yüksek tutabilir ve alınacak verim oranını arttırabiliriz. Aşağıda olan görselde burada anlattığım kısmı gözlemleyebilirsiniz.

 
Kelime Bulutu çalışması için ben ‘samsung’ kelimesini seçtim. Lang kısmında dil seçeneğinin kısaltmasını girerek seçtiğiniz hashtag verisini kendi çalışma alanınıza çekebilirsiniz. İlk başta gerekli kütüphaneleri ekliyoruz hemen sonrasında çalışacağımız arka plan rengini kişisel isteğinize göre değiştirebiliriz. Ek olarak plt.axis değerini ‘on’ hale getirirseniz tekrar eden kelimelerin frekansını gözlemleyebilirsiniz. Ben bunu kendim ön plana çıkarma metodu ile yaptığım için eksenlerini ekstra olarak göstermeyi gereksiz buldum. Burada yaptığım işlem temel bir wordcloud yapısı kurmak ve sizlerin giriş seviyesinde bile olsa bir şeyler kazandırmak. Doğal dil işleme için kariyer planlamanız varsa, bunu bir başlangıç olarak görüp gerekli notları takip ederek kendini geliştirmeye devam edebilirsiniz. Kelime bulutu yapısı bu işlerin en alt sekmesidir. Ben de bir junior olarak sizlere de öğretirken kendim de bu alanda çalışmaları sürdürüyorum. Doğal dil işleme kariyeri, geniş çaplı kaynak tarama ve github gibi platformlarda başkalarının neler yaptığını, nasıl kod yazdıklarını ve ne gibi projelerin yapıldığına dair her an takipte kalmanız gereken bir alandır.

 
Son kısımda da bahsedeceğimi söylediğim giriş seviyesi bir sentiment analizini göstereceğim. Burada anlatacaklarıma başlamadan önce, Python’da kod yazarken def kalıplarını iyi kurmanız ve kodunuzu burada içeriye iyice yedirmeniz gerekmektedir. Fonksiyonel işlemlerinin hızlandırılması ve ileri zamanlarda çalışırken sizden sonrasında yerinize gelecek kişilere anlaşılır, ölçeklenebilir bir kod yazmanız herkes açısından fayda sağlayacaktır. Bunu da def yapıları ile temiz kod yazarak sizin yerinize gelen kişiye kolay bir şekilde orada yaptıklarınızı aktarabilirsiniz. Sentiment analizine dönecek olursam, burada halihazırda textblob kütüphanesi aracılığıyla bu skorlama işini yapabiliriz. Twitter üzerinden atılan tweetlerin içeriği ve bu içeriğin olumlu – olumsuz kelimeler barındırılması sonucunda TextBlob bunu sınıflandırır. Bu sınıflandırma sonrası, sizlere üzerinde analiz yapılacak hazır hale gelmiş bir kolon verir. Bunu isteğinize göre analiz edebilir, farklı çalışmalar deneyebilirsiniz. Örnek olarak grafik haline dökebilir, tekrar eden kelimelerin sayısını gözlemleyebilir ve bu değerler sayesinde farklılıkları ele alarak, arka planını kendiniz düzenlediğiniz bir resme entegre edebilirsiniz.
 

References:
-https://globalaihub.com/sentiment-analysis-with-naive-bayes/
-https://globalaihub.com/duygu-analizi-nedir/
-https://www.veribilimiokulu.com/
-https://amueller.github.io/word_cloud/
-https://www.datacamp.com/community/tutorials/wordcloud-python
-https://monkeylearn.com/sentiment-analysis/

Buy Sell Algorithm with Moving Average

Data Scientists working in the field of finance usually make calculations such as portfolio optimization, trading transactions and portfolio return. This work is very important on the stock market. Because every decision made affects the amount of profit to be made. Therefore, it should be integrated into the system being worked on by choosing the steps carefully. There is a mechanism in the stock exchange that interacts with the world, and companies that can quickly adapt to its changes should quickly make a difference and become sustainable. In this way, while revealing their difference, they can change their marketing style and be active in the market. Companies that offer consultancy as a brand and have a high potential to adapt to changes can frequently mention their names. Machine learning and deep learning algorithms are deeply worked in the background of robot consultants. Every company that offers robot consultants has a solid infrastructure in its own right. Even if the coding part is a bit complicated, the moment we reach the conclusion part, we will see the whole success with our own eyes. Based on this, I put the output as an example in the bottom picture.
 

 
Actually, the picture you see above represents the final state of the project. For those who want to reach, I will leave the whole code in the resources section and you will be able to adapt it to your own systems easily. I should indicate that as a note. I did this encoding using the company Aselsan Turkey Located in the stock market. In addition, any transaction you see here is not investment advice. After specifying these, we add the libraries as you see below and read our data set. Then we code the describe () function to get statistical output about the data. The variable we are dealing with here will be on the ‘close’ variable, which represents the closing of the exchange. I made my own analysis by taking the dates of the data set as of January 1, 2017. You can make your analysis at any time you want, but the only thing that should be, the historical data set for the stock must be in the necessary libraries so that you can use it as I use it. Otherwise, your code will not run and will generate errors. You can examine the details of the code for which I put the Github link. If you have any questions, you can contact me at my e-mail address.
 

 
 
There are many different methods of technical analysis within the stock market. Here we will continue on the moving average entirely. The moving average method is one of the most common methods used in the stock market. Thanks to this method, there are many people who instantly follow the trading style transactions in the stock market. There are still technical analysis methods that we will add to these. Examples include RSI, Bolinger Band, MACD, and Fibonacci Correction Levels. The lines you see at the bottom are the moving average method that will make horse sell transactions for us with the window () function. The blue line in the image represents the actual prices. Apart from this, the intersection points of other lines turn to us as buy and sell and we can measure the return ourselves. Thanks to the function I named buy_sell, it takes the necessary actions for us. This makes the preparation for us. The functioning of this place for us indicates that all of the transactions are completed. Now only the necessary assignments have been made and the visual representation of the function is as I showed it at the beginning. To do this, the matplotlib library will help you.
 
 

The rest of this article will come as long as I improve myself and I am thinking of writing this in a series. I aim to explain to you the effects of the trading and technical analysis methods used in the stock exchange and help everyone who thinks about a career in this field. There are many start-ups in the stock market that trade through robot advisors. In addition, large companies on the basis of the sector continue to provide continuity while discovering new things in the market by investing in many small companies that will work in this field and are open to development. As it is known, the stock market can be affected by even the smallest things and change the profit and loss situations quickly. Large companies, who have information about what will happen before, preserve their profit margin by taking firm steps in the market by predicting such volatile environments. There are many technical analysis methods in the analysis systems used while creating them. The scalability of such processes can also guarantee how the system will react and that it will respond positively. I will continue to evaluate the share prices and process the technical analysis methods on the Python programming language. You can follow up and give feedback for this.
 

 

References:

https://globalaihub.com/robo-advisory-in-ai/
https://globalaihub.com/importance-of-data-quality-and-data-processing/
https://github.com/tanersekmen/stocks-buy-sell/blob/main/buy-sell.ipynb
https://www.tradingview.com/symbols/BIST-ASELS/technicals/
https://finance.yahoo.com/quote/ASELS.IS?p=ASELS.IS&.tsrc=fin-srch

Hareketli Ortalama Algoritmasıyla Al – Sat Tavsiyeleri

Finans alanında çalışan Veri Bilimciler, genellikle portföy optimizasyonu, al – sat işlemleri ve portföy getirisi gibi hesapları yapar. Bu işin borsa üzerinde önemi çok üst seviyededir. Çünkü verilen her karar, yapılacak olan kâr miktarını etkiler. Bundan ötürü adımları dikkatli seçerek, üzerinde çalışılan sisteme entegre edilmelidir. Borsa içerisinde dünya ile etkileşim halinde olan mekanizma mevcut ve bunun değişimlerine hızlı şekilde adapte olabilen firmalar hızlıca fark yaratıp sürdürülebilir bir hal almalıdır. Bu sayede kendi farkını ortaya koyarken pazarlama şekillerini değiştirip piyasa içerisinde aktif olabilirler. Marka olarak danışmanlık sunan ve değişikliklere adapte olma potansiyeli yüksek olan firmalar, kendi isimlerinden sık bir şekilde bahsettirebilirler. Robot danışmanların arka planında yoğun bir şekilde makine öğrenmesi ve derin öğrenme algoritmaları yatmaktadır. Robot danışman sunan her şirket, kendi bünyesinde sağlam bir altyapıya sahiptir. Kodlama kısmı biraz karmaşık olsa bile sonuç kısmına vardığımız an, başarının tamamını kendi gözlerimizle göreceğimiz. Buna istinaden çıktıyı alt resimde örnek olması adına koyuyorum.

 
 
Aslında üstte gördüğünüz resim, projenin son halini temsil ediyor. Ulaşmak isteyenler için sizlere kaynaklar kısmında kod bütününü bırakacağım ve kendi sistemlerinize kolay bir şekilde adapte edebileceksiniz. Not olarak şunu belirtmeliyim. Ben Türkiye borsası içerisinde yer alan Aselsan şirketini kullanarak bu kodlamayı yaptım. Ek olarak burada gördüğünüz herhangi bir işlem yatırım tavsiyesi değildir. Bunları belirttikten sonra alt tarafta gördüğünüz şekilde kütüphaneleri ekleyip veri setimizi okuyoruz. Ardından veri hakkında istatistiksel çıktıları almak için describe() fonksiyonunu kodluyoruz. Burada ilgilendiğimiz değişken, borsanın kapanışını temsil eden ‘close’ değişkeni üzerine olacak. Veri setinin tarihlerini ben 1 Ocak 2017 itibari ile alarak kendi analizimi gerçekleştirdim. Siz istediğiniz herhangi bir zaman üzerinden analizinizi yapabilirsiniz fakat tek olması gereken şey, benim kullandığım şekilde kullanabilmeniz için hisse için tarihsel veri seti, gerekli kütüphaneler içerisinde bulunmalıdır. Aksi takdirde kodunuz çalışmayacak ve hata üretecektir. Github linkini koyduğum kodun detaylarını inceleyebilirsiniz. Herhangi bir sorunuz olursa mail adresimden bana ulaşabilirsiniz.
 

 
Borsa içerisinde birçok farklı şekilde teknik analiz yöntemi vardır. Biz burada tamamen hareketli ortalama üzerinden devam edeceğiz. Hareketli ortalama yöntemi, borsa içinde kullanılan en yaygın yöntemlerden birisidir. Bu yöntem sayesinde borsa içinde al sat tarzı işlemleri anlık olarak takip eden birçok insan vardır. Bunlara ekleyeceğimiz teknik analiz metotları halen mevcuttur. Örnek vermek gerekirse RSI, Bolinger Bandı, MACD ve Fibonacci Düzeltme Seviyeleri sayılabilir. Alt tarafta gördüğünüz çizgiler, bizim için window() fonksiyonu ile at sat işlemlerini yaptıracak, hareketli ortalama yöntemidir. Görselde mavi çizgi asıl fiyatları temsil etmektedir. Bunun haricinde diğer çizgilerin kesişim noktaları bize al sat olarak dönüyor ve getirisini kendimiz ölçebiliyoruz. Buy_sell adını verdiğim fonksiyon sayesinde bize gerekli işlemleri yapıyor. Bu da bizim için hazırlığı yapıyor. Bizim için buranın çalışması hali, işlemlerinin tamamının bittiğini gösterir. Artık geriye sadece gerekli atamaların yapılıp fonksiyonun görsel olarak en başta gösterdiğim şekilde sunumu kalmıştır. Bunu yapabilmek için matplotlib kütüphanesi size yardımcı olacaktır.
 

 
Bu yazının devamını kendimi geliştirdiğim sürece gelecek ve bunu bir seri halinde yazmayı düşünüyorum. Borsa içerisinde kullanılan al sat işlemleri ve teknik analiz metotlarının bunlara etkilerini sizlere açıklayıp bu alanda kariyer düşünen herkese yardımcı olmayı hedefliyorum. Borsa içerisinde robot danışman üzerinden işlem yapan birçok start-up bulunmaktadır. Bununla birlikte sektör bazında büyük firmalar, bu alanda çalışacak ve gelişime açık birçok ufak şirkete yatırım yaparak, piyasa içerisinde yeni şeyleri keşfederken sürekliliğini sağlamaya devam ediyor. Bilindiği üzere borsa en ufak şeylerden bile etkilenip kâr – zarar durumlarını hızlıca değiştirebiliyor. Önceden olacaklara karşı bilgi sahibi olan büyük firmalar, bu tarz değişken ortamlarını tahmin ederek piyasa içerisinde sağlam adımlar atarak kâr marjını koruyor. Bunları oluştururken kullandığı analiz sistemlerinde birçok teknik analiz metodu bulunmaktadır. Böyle işlemlerin ölçeklenebilir olması da sistemin ne tür tepki vereceğini ve verdiği tepkinin olumlu anlamda olacağının garantisini verebiliyor. Hisse fiyatlarını değerlendirip teknik analiz metotlarını Python programlama dili üzerinde işlemeye devam edeceğim. Bunun için takipte kalarak geri bildirimde bulunabilirsiniz.
 

 

References:

https://globalaihub.com/robo-advisory-in-ai/
https://globalaihub.com/importance-of-data-quality-and-data-processing/
https://github.com/tanersekmen/stocks-buy-sell/blob/main/buy-sell.ipynb
https://www.tradingview.com/symbols/BIST-ASELS/technicals/
https://finance.yahoo.com/quote/ASELS.IS?p=ASELS.IS&.tsrc=fin-srch

A Phenomenon: Time loop

We heard about a time loop, parallel worlds and etc. but do we know exactly what is it? Basically, the time loop is a phenomenon when some periods of time are repeated and re-experienced by somebody. The things happen over and over again. Also, we see it in many movies – those movies/series are my favorites ones so far. There is a series called a Russian Doll on Netflix and it is about the time loop. If I need to tell what is based on is that Nadia’s personal journey and she is going through repeated moments. She dies repeatedly, always returning at the same moment where she was and of course she tries to figure out what is happening to her. For sure, there are some sub-topics like addictions or issues but my main topic is about the time loop and I would like to go deep.

What is the Time loop?

Mostly we call it “déjà vu” and I am sure most of us at least once experienced it. These areas are really deep and make us confuse if we are not familiar with these terms and/or moments. Honestly, I am not familiar with it but it grabs my interest because it does not mean that it does not happen to someone else even if I cannot understand totally. Therefore, I did a quick research about it, and according to my research, there are two different kinds of time loops. The first one is called the “causal paradox” and another one is called the “ontological paradox” and this is also known as the bootstraps paradox.
The causal paradox exists when events in the future trigger a sequence of events in the past whereas the ontological paradox involves an object or person to create the loop. As a note, their origin cannot be determined.
The time loop happens without ending and our memories are reset once we restart to repeat moments. The thing is everything looks normal actually we live normal until a point that we experience the same things again.

Time loop: Why, How, When…?

Of course, we would like to travel to a different time whether it is in the past or future. Sometimes, we may want to change the events that possible to happen in the future – it is an inevitable wish. There is an example of how we desire to learn something about the future and in my culture, we have “fortune-telling”. Despite all the real world, sometimes for fun sometimes for real, fortune-telling becomes an important one of the moments. I know this example exactly is not about the time loop but it is about time travel and these topics are related to each other.
On the other hand, there is something related to human behaviors because we would like to know more about a mystery, about our brain functions, how we react to things…

If you would like to learn about brain activities and developments, check this article out:

https://globalaihub.com/neuralink-the-purpose-of-it-and-security-issue/

Usually, I ask myself how AI will be playing a role in the time loop area if AI is going to affect every single area. It is not easy to get the correct answer but I will try to understand.

Artificial Intelligence and the Time Loop

As I tried to mention above, there are some different kinds of concepts. For example, how to get there whether it is past or future; after getting there how the things can be changed by events and/or persons. What AI can do is that predict the future that possible to happen. Therefore, even with the basic concepts, we try to predict the possible future and take an action based on it. In today’s world, we use from house to factory, many tools developed through machine learning algorithms and want them to make our lives more easy and valuable. So, I am asking can we use AI for time travel? Why not? AI uses and monitors data from different sources and based on it creates machine learning models to have impacts in the future – Such an excited.
However, a big challenge is that we might change possibilities based on our understanding of future events. And actually, it is not only about the changing possibilities, also the challenge is to manage multiple pathways with multiple data. It looks really complicated to me.

Resources

https://towardsdatascience.com/back-to-the-future-what-ai-has-in-common-with-time-travel-219496185819
https://en.wikipedia.org/wiki/Causal_loop
https://timetraveltheories.weebly.com/the-ontological-paradox.html
https://yourtimetravelexperience.com/what-is-a-time-loop
 

Designing an Artificial Human Eye: EC-Eye

The eye is one of the organs with the most complex biological structure. Thanks to this structure, it provides a very wide viewing angle, as well as processing both the distance and the near in detail, and it also provides an incredible harmony according to the environment and light conditions. In addition to its neural networks, layers, millions of photoreceptors, it also has a spherical shape, making it very difficult to copy.
Despite all these difficulties, scientists from the Hong Kong University of Science and Technology continued their work in this area and developed a bionic eye with light-sensitive superconducting perovskite material. This bionic eye, which they call the “Electrochemical Eye” (EC-Eye), is about to do much more, let alone copy a human eye.
 

 
The cameras we have now can sound like a replica of vision. But for small sizes, the resolution and viewing angle do not exactly have the characteristics of the human eye, rather solutions such as microchips are used. But, as we said before, designing them on a spherical surface is not that easy. So how does EC-Eye do this?
We can say that the electrochemical eye consists of 2 parts. There is a lens on the front that functions as a human iris. It also has an aluminum shell filled with an electrically charged liquid on the same side. This liquid is a biological fluid in the form of a gel that fills the inside of the eye, which we know as “Vitreous” in the human eye structure.

 
On the back of the EC-Eye, some wires send the generated electrical activity to the computer to process. It also has a silicone eye socket to make contact. Finally, and most importantly, the sensitive nanowires that perform the detection. These nanowires are so sensitive that their response speed is faster than photoreceptors in a normal human eye. Transmission takes place by transmitting the electrical reactions that occur on the nanowires to the computer. Of course, even if it seems like a very easy process when told in this way, it is an application that pushes the limits of technology. It is even more intriguing that all these processes work with a power and feature that will leave the human eye in the background.
To see how it works, an interface was created between EC-Eye and the computer, and some letters were shown to EC-Eye through this interface. As a result of the detection, it was proven that a higher resolution image was obtained. For the next stages, it will face much more complex tests and studies will continue for its development.

It is very clear that this bionic eye needs to pass many more tests to replace the human eye, especially although it looks like a small device, the stage of connecting nanowires to a computer for processing is now a problem. When it comes to a lot of nanowires, it seems very difficult to install and use them in a practical way, so these bionic eyes may take a little longer to commercialize and be used by everyone. But for now, it gives great hope for the future.
If it comes to a point where it can do things that the human eye cannot perceive, it can be said that it has a lot of potential. What we see in science fiction movies and “These only happen in movies anyway.” It seems that recording, seeing far, night vision, viewing frequencies in other wavelengths is not that inaccessible anymore. Just as these can be done very comfortably even with phone cameras, it is not that difficult to predict that high-end technological applications including artificial intelligence can do this easily.
Artificial Intelligence has already begun to be a part of us in every field.
 
References:

Looking to the Future: Creating an Artificial Eye


https://www.nature.com/articles/s41586-020-2285-x.pdf?origin=ppub
https://tr.euronews.com/2020/05/21/insanlar-ve-robotlar-icin-gelistirilen-biyonik-goz-ilk-testleri-gecti-potansiyelde-s-n-r-y

Credit Scoring / Credit Analysis

There are certain start-ups that every company will invest in or help with financial development. As a result of certain analyzes, the investor company determines the company to invest and acquire. In this way, taking the development into account, the amount of contribution to be provided in direct proportion to the return is calculated in advance. This kind of analysis method has been developed in banks among their customers by data scientist . In short, credit scoring transactions are carried out between the bank and the customer in the loan application. The purpose of doing this is basically evaluated with tests to see if people actually pay or will be able to pay the loan they will receive. This is called credit scoring in machine learning. After the transactions, a positive or negative feedback is made to the person applying for the loan. There are many metrics that evaluate in this direction. As an example to these; There are many features that will be examined in more detail, such as the amount of wages people get, their career history, their previous loan status, and so on. As a result of their evaluation, 1 and 0 values ​​that will be formed give us positive or negative meaning.
 

 
Banks do extensive research on this subject, as in most subjects, and after analyzing the data they have, they put them into machine learning processes. As a result of these processes, the final model is prepared by performing a few optimization operations on the logic testing steps. Then these situations are accelerated and tested for people who apply for almost every loan. Values ​​0 and 1 are assigned as values. As a result of the transactions, the output of 0 does not suggest us to give credit to this person, and vice versa, when the output of 1 comes, it makes the customer segmentation process for us by saying “you can give credit to this person”.After the last step is completed thanks to the data science staff, the last step for us is to return this information to the required departments, finalize the applications of the individuals according to the results and return. The importance of analysis is critical for a bank. Because the smallest mistakes made can cause the loss of large amounts. For this reason, every credit scoring transaction should return to the bank positively.
 

 
Credit scoring transactions are of great importance for every bank. The amount of money out of the safe and the failure of the person to be loaned to fully fulfill its responsibility will cause major financial problems. Therefore, the data science team working at the back should be experts in this field and evaluate the measures according to every circumstance. In addition, people’s personal information should be analyzed thoroughly and a logical return to their application should be made. After arranging the data pre-processing steps and performing the operations on the necessary variables, the process is about getting a little more data ready. Another critical issue in credit scoring is the data pre-processing steps and the analysis steps to be taken afterwards. The Data Science team should do the engineering of variables themselves and analyze the effects of variables and their correlations correctly. After these processes, it will be inevitable that a logical result will occur. To minimize the margin of error, it is all about adjusting the data almost perfectly and evaluating the necessary parameters.
 

 
It is necessary to create the machine learning algorithm at the very beginning of the processes required to perform credit scoring and the variables should be checked once more before the model. Because the transactions are completely related to variables. Therefore, the effect of categorical or numerical variables on the model differs. Also, while setting up this model, it must be adjusted carefully. If the parameters we will use are specifically using the Python programming language, the parameters can be tested thanks to the GridSearchCV () method, and then the most suitable parameters are integrated into the model. Thus, it can proceed more successfully in credit scoring. This increases the level of service provided, so that people can meet their expectations and provide a personalized service to suit them. People with a high level of satisfaction develop their bond with the bank. Additionally, they feel more confident psychologically. The most basic feature of people is to feel belonging or connected somewhere. Providing this can increase the customer potential owned. If you want your own advertisement to be made, you can keep a good bond with your customers and increase their loyalty to you. One of the things that directly affects this is undoubtedly credit scoring.
 

 
References :
-https://globalaihub.com/examples-of-artificial-intelligence-in-life/
-https://globalaihub.com/machine-learning-makine-ogrenimi/
-https://www.cgap.org/sites/default/files/publications/2019_07_Technical_Guide_CreditScore.pdf
-https://www.moodysanalytics.com/solutions-overview/credit-origination/credit-assessment
-https://corporatefinanceinstitute.com/resources/knowledge/credit/credit-analysis-process/

Kredi Skorlama / Kredi Analizi

Her şirketin yatırım yapacağı ya da finans anlamında gelişim konusunda yardımcı olacağı belirli start-up’lar mevcuttur. Belirli analizler sonucu, yatırımcı firma yatırım yapacağı ve bünyesine alacağı firmayı belirler. Bu sayede gelişimi göz önüne alarak, getiri ile doğru orantılı olarak sağlayacağı katkı miktarı önceden hesaplanır. Bankalarda da müşterileri arasında bu tarz bir analiz yöntemi gelişmiştir. Kısaca banka ile müşteri arasında kredi başvurusunda kredi skorlama işlemleri yapılmaktadır. Bunun yapılma amacı temelde insanlar aslında alacağı krediyi öder mi ya da ödeyebilecek mi diye testler ile değerlendirilir. Buna makine öğrenmesi konusunda kredi skorlama denmektedir. Yapılan işlemler sonrası, krediye başvuran kişiye olumlu ya da olumsuz bir geri dönüş yapılmaktadır. Bu doğrultuda değerlendiren birçok metrik bulunmaktadır. Bunlara örnek olarak; insanların aldıkları maaş miktarı, kariyer geçmişi, daha öncesinde kredi alma durumları ve bunun gibi birçok daha detaylı olarak incelenecek olan özellikler bulunmaktadır. Bunların değerlendirilmesi sonucu, oluşacak olan 1 ve 0 değerleri bize olumlu ya da olumsuz anlam vermektedir.
 

 
Bankaların çoğu konuda olduğu gibi bu konuda da geniş çaplı araştırma yaparak, sahip oldukları verileri analiz ettikten sonra makine öğrenmesi işlemlerine sokmaktadır. Bu işlemler sonucunda, mantık sınaması adımları üzerinde duruma göre birkaç optimizasyon işlemleri yapıp son model hali hazırlanır. Ardından bu durumlar hızlanarak hemen her kredi başvurusu yapan insanlar için test edilir. Değer olarak ise 0 ve 1 değerleri atanır. İşlemler sonucunda 0 çıktısı bize, ‘bu kişiye kredi vermemizi önermez’ tam tersi yani 1 çıktısı geldiğinde ise ‘bu kişiye kredi verebilirsiniz’ diyerek bize müşteri segmentasyon işlemini de yapmış olur. Son adım da veri bilimi kadrosu sayesinde hallolduktan sonra, bizim için geriye kalan son adım ise bu bilgileri gerekli departmanlara ileterek, çıkan sonuçlara göre kişilerin başvurularını sonuçlandırarak, geri dönüş yapmak kalır. Analizlerin önemi, bir banka için kritik bir öneme sahiptir. Çünkü yapılan en ufak hatalar, yüklü miktarların kayıplarına sebep olabilmektedir. Bu sebeple yapılan her kredi skorlama işlemi, bankaya olumlu şekilde dönmelidir.
 
 

 
Kredi skorlama işlemleri, her banka için büyük önem taşımaktadır. Kasadan çıkan paranın miktarı ve kredi verilecek kişinin sorumluluğunu tamamen yerine getirmemesi, maddi anlamda büyük sorunlara yol açacaktır. Bundan ötürü arka tarafta çalışan veri bilimi ekibi, bu konuda uzman olmalı ve tedbirleri her koşula göre değerlendirmelidir. Buna ek olarak, insanların kişisel bilgilerini de iyice analiz edip başvurusuna mantıklı bir dönüş yapılmalıdır. Veri ön işleme adımlarını düzenleyip gerekli değişkenlerin üzerinden yapılan işlemler sonrası, süreç biraz daha verinin hazır hale getirilmesiyle alakalıdır. Kredi skorlama konusunda kritik derecede öneme sahip olan bir diğer mühim konu, veri ön işleme adımları ve sonrasında atılacak analiz adımlarıdır. Veri Bilimi ekibi, değişken mühendisliğini de kendileri yaparak değişken etkilerini ve onların korelasyonlarını aralarında oluşan bağları da doğru bir şekilde analiz etmelidir. Bu işlemler sonrasında ise, mantıklı bir sonucun ortaya çıkması kaçınılmaz olacaktır. Hata payını minimum yapmak, tamamen veriyi mükemmele yakın bir şekilde ayarlamak ve gerekli parametreleri değerlendirmektir.
 

 
Kredi skorlaması yapmak için gerekli işlemlerin en başında makine öğrenmesi algoritmasının oluşturulması ve model öncesi, değişkenlerin bir kere daha kontrol edilmesi gereklidir. Çünkü yapılan işlemlerin tamamen değişkenler ile bağlantısı vardır. Bundan dolayı, kategorik ya da numerik değişkenlerin modele etkisi farklılık göstermektedir. Ayrıca bu modeli kurarken de dikkatli şekilde ayarlanması gerekmektedir. Kullanacak olduğumuz parametrelerin özel olarak Python programlama dili kullanılıyorsa, içerisinde bulunan GridSearchCV() metodu sayesinde, parametreler denenebilir ve sonrasında en uygun parametreler modelin içerisine entegre edilir. Böylece kredi skorlama konusunda daha başarılı bir şekilde yol alabilir. Bu da verilen hizmetin seviyesini arttırır ve bu sayede insanların beklentilerini karşılayabilir, onlara uygun şekilde kişiye özel bir hizmet sağlanabilir. Memnuniyet seviyesi üst düzey olan kişiler, banka ile olan bağını geliştirir. Ek olarak, psikolojik olarak kendilerini daha güvende hissederler. İnsanların en temel özelliği ise bir yerlere ait ya da bağlı hissetmektir. Bunu sağlamak, sahip olunan müşteri potansiyelini arttırabilir. Kendi reklamınızın yapılmasını isterseniz, müşterileriniz ile aranızdaki bağı iyi derecede tutabilir ve onların size olan bağlılığını arttırmanız yeterli olacaktır. Buna direkt etki eden şeylerden birisi ise şüphesiz kredi skorlamasıdır.
 

 
References :
-https://globalaihub.com/examples-of-artificial-intelligence-in-life/
-https://globalaihub.com/machine-learning-makine-ogrenimi/
-https://www.cgap.org/sites/default/files/publications/2019_07_Technical_Guide_CreditScore.pdf
-https://www.moodysanalytics.com/solutions-overview/credit-origination/credit-assessment
-https://corporatefinanceinstitute.com/resources/knowledge/credit/credit-analysis-process/

Featured Image

A Step-By-Step Journey To Artificial Intelligence

Machine learning (ML) is the study of computer algorithms that develop automatically through experience [1]. According to Wikipedia, machine learning involves computers discovering how to perform tasks without being explicitly programmed [2]. The first thing that comes to most of you when it comes to artificial intelligence is undoubtedly robots, as you can see in the visual. Today I have researched the relevant courses at the basics of machine learning and artificial intelligence level for you, and here I will list the DataCamp and Coursera courses that I’m most pleased with.

DataCamp Courses


💠 Image Processing with Keras in Python: During this course, CNN networks will be taught how to build, train, and evaluate. It will be taught how to develop learning abilities from data and how to interpret the results of training.
Click to go to the course 🔗
💠 Preprocessing for Machine Learning in Python:  You’ll learn how to standardize your data to be the right format for your model, create new features to make the most of the information in your dataset, and choose the best features to improve your model compliance.
Click to go to the course  🔗
💠 Advanced Deep Learning with Keras: It shows you how to solve various problems using the versatile Keras functional API by training a network that performs both classification and regression.
Click to go to the course 🔗
💠 Introduction to TensorFlow in Python: In this course, you will use TensorFlow 2.3 to develop, train, and make predictions with suggestion systems, image classification, and models that power significant advances in fintech. You will learn both high-level APIs that will allow you to design and train deep learning models in 15 lines of code, and low-level APIs that will allow you to go beyond ready-made routines.
Click to go to the course 🔗
💠 Introduction to Deep Learning with PyTorch: PyTorch is also one of the leading deep learning frameworks, both powerful and easy to use. In this lesson, you will use Pytorch to learn the basic concepts of neural networks before creating your first neural network to estimate numbers from the MNIST dataset. You will then learn about CNN and use it to build more powerful models that deliver more accurate results. You will evaluate the results and use different techniques to improve them.
Click to go to the course 🔗
💠 Supervised Learning with scikit-learn: 

  • Classification
  • Regression
    • Fine-tuning your model
    • Preprocessing and pipelines

Click to go to the course 🔗

💠 AI Fundamentals:

  • Introduction to AI
  • Supervised Learning
    • Unsupervised Learning
    • Deep Learning & Beyond

Click to go to the course 🔗


Coursera Courses


💠 Machine Learning: Classification, University of Washington: 

  • The solution of both binary and multi-class classification problems
  • Improving the performance of any model using Boosting
  • Method scaling with stochastic gradient rise
  • Use of missing data processing techniques
  • Model evaluation using precision-recall metrics

Click to go to the course 🔗

💠 AI For Everyone, deeplearning.ai:  

  • Realistic AI can’t be what it can be?
  • How to identify opportunities to apply artificial intelligence to problems in your own organization?
  • What is it like to create a machine learning and data science projects?
  • How does it work with an AI team and build an AI strategy in your company?
  • How to navigate ethical and social discussions about artificial intelligence?

Click to go to the course  🔗

💠 AI for Medical Diagnosis, deeplearning.ai: 

  • In Lesson 1, you will create convolutional neural network image classification and segmentation models to diagnose lung and brain disorders.
  • In Lesson 2, you will create risk models and survival predictors for heart disease using statistical methods and a random forest predictor to determine patient prognosis.
  • In Lesson 3, you will create a treatment effect predictor, apply model interpretation techniques, and use natural language processing to extract information from radiology reports.

Click to go to the course 🔗
As a priority step in learning artificial intelligence, I took Artificial Neural Networks and Pattern Recognition courses in my Master’s degree. I developed projects related to these areas and had the opportunity to present these projects. So I realized that I added more to myself when I passed on what I knew. In this article, I mentioned the DataCamp and Coursera courses that you should learn in summary. Before this, I strongly recommend that you also finish the Machine Learning Crash Course.

REFERENCES

  1. Mitchell, Tom (1997). Machine Learning. New York: McGraw Hill. ISBN 0-07-042807-7. OCLC 36417892.
  2. From Wikipedia, The free encyclopedia, Machine learning, 19 November 2020.
  3. DataCamp, https://learn.datacamp.com.
  4. Coursera, https://www.coursera.org.
Featured Image

Yapay Zekaya Adım Adım Yolculuk

Makine öğrenimi (ML), deneyim yoluyla otomatik olarak gelişen bilgisayar algoritmalarının incelenmesidir [1]. Wikipedia’ ya göre ise makine öğrenimi, bilgisayarların, açıkça programlanmadan görevleri nasıl gerçekleştirebileceklerini keşfetmelerini içerir [2]. Yapay Zeka denilince çoğunuzun aklına ilk gelen şey kuşkusuz görselde gördüğünüz gibi robotlar gelmektedir. Bugün makine öğrenimi ve yapay zekanın temelleri seviyesinde ilgili kursları sizler için araştırdım ve en çok memnun kaldığım DataCamp ve Coursera kurslarını burada listeleyeceğim.

DataCamp Kursları

💠 Image Processing with Keras in Python:  Bu kurs boyunca CNN ağları nasıl inşa edileceği, eğitileceği ve değerlendirileceği öğretilecektir. Verilerden öğrenme yeteneklerinin nasıl geliştirileceğini ve eğitimin sonuçlarını nasıl yorumlanacağı öğretilecektir.
Kursa gitmek için tıklayın 🔗

💠 Preprocessing for Machine Learning in Python:  Verilerinizi, modeliniz için doğru biçimde olacak şekilde standartlaştırmayı, veri kümenizdeki bilgilerden en iyi şekilde yararlanmak için yeni özellikler oluşturmayı ve model uyumunuzu iyileştirmek için en iyi özellikleri seçmeyi öğreneceksiniz.
Kursa gitmek için tıklayın 🔗 

💠 Advanced Deep Learning with Keras: Hem sınıflandırma hem de regresyon yapan bir ağı eğiterek çok yönlü keras işlevsel API’sini kullanarak çeşitli problemleri nasıl çözeceğinizi gösterir.
Kursa gitmek için tıklayın 🔗

💠 Introduction to TensorFlow in Python: Bu derste, tensorflow 2.3’ü, öneri sistemleri, görüntü sınıflandırması ve Fintech’teki önemli ilerlemelere güç veren modellerle geliştirmek, eğitmek ve tahminler yapmak için kullanacaksınız. Hem 15 satırlık kodda derin öğrenme modelleri tasarlamanıza ve eğitmenize izin verecek üst düzey API’leri hem de hazır rutinlerin ötesine geçmenize izin verecek düşük seviyeli API’leri öğreneceksiniz.
Kursa gitmek için tıklayın 🔗

💠 Introduction to Deep Learning with PyTorch: PyTorch, aynı zamanda hem güçlü hem de kullanımı kolay olan önde gelen derin öğrenme çerçevelerinden biridir. Bu derste, MNIST veri kümesinden rakamları tahmin etmek için ilk sinir ağınızı oluşturmadan önce sinir ağlarının temel kavramlarını öğrenmek için Pytorch’ u kullanacaksınız. Daha sonra CNN hakkında bilgi edinecek ve daha doğru sonuçlar veren daha güçlü modeller oluşturmak için kullanacaksınız. Sonuçları değerlendirecek ve bunları geliştirmek için farklı teknikler kullanacaksınız.
Kursa gitmek için tıklayın 🔗

💠 Supervised Learning with scikit-learn: 

  • Classification
  • Regression
    • Fine-tuning your model
    • Preprocessing and pipelines

Kursa gitmek için tıklayın 🔗

💠 AI Fundamentals:

  • Introduction to AI
  • Supervised Learning
    • Unsupervised Learning
    • Deep Learning & Beyond

Kursa gitmek için tıklayın 🔗


Coursera Kursları

💠 Machine Learning: Classification, University of Washington: 

  • Hem ikili hem de çok sınıflı sınıflandırma problemlerinin çözümü
  • Boosting kullanarak herhangi bir modelin performansını artırımı
  • Stokastik gradyan yükselişi ile yöntem ölçeklendirme
  • Eksik verileri işleme teknikleri kullanımı
  • Hassas hatırlama metrikleri kullanılarak model değerlendirme

Kursa gitmek için tıklayın 🔗 

💠 AI For Everyone, deeplearning.ai:  

  • Gerçekçi AI ne olabilir ne olamaz?
  • Kendi kuruluşunuzdaki sorunlara yapay zeka uygulamak için fırsatlar nasıl belirlenir?
  • Makine öğrenimi ve veri bilimi projeleri oluşturmak nasıl bir şeydir?
  • Bir AI ekibi ile nasıl çalışır ve şirketinizde bir AI stratejisi nasıl oluşturulur?
  • Yapay zeka ile ilgili etik ve sosyal tartışmalarda nasıl gezinilir?

Kursa gitmek için tıklayın 🔗 

💠 AI for Medical Diagnosis, deeplearning.ai: 

  • Ders 1’de, akciğer ve beyin bozukluklarını teşhis etmek için konvolüsyonel sinir ağı görüntü sınıflandırması ve segmentasyon modelleri oluşturacaksınız.
  • Ders 2’de, hasta prognozunu belirlemek için istatistiksel yöntemler ve rastgele bir orman belirleyicisi kullanarak kalp hastalığı için risk modelleri ve sağkalım tahmincileri oluşturacaksınız.
  • Ders 3’te, bir tedavi etkisi belirleyicisi oluşturacak, model yorumlama tekniklerini uygulayacak ve radyoloji raporlarından bilgi almak için doğal dil işleme kullanacaksınız.

Kursa gitmek için tıklayın 🔗
Yapay zeka öğrenirken öncelikli adımlar olarak Yüksek Lisans dönemimde Yapay Sinir Ağları ve Örüntü Tanıma derslerini aldım. Bu alanlar ile ilgili projeler geliştirdim ve bu projeleri sunma fırsatım oldu. Böylelikle bildiklerimi aktarırken kendime daha çok şey kattığımı fark ettim. Bu yazıda özet olarak öğrenmeniz gereken DataCamp ve Coursera kurslarından bahsettim. Bunlardan önce Machine Learning Crash Course‘ u da bitirmenizi şiddetle tavsiye ediyorum.

REFERANSLAR

  1. Mitchell, Tom (1997). Machine Learning. New York: McGraw Hill. ISBN 0-07-042807-7. OCLC 36417892.
  2. From Wikipedia, The free encyclopedia, Machine learning, 19 November 2020.
  3. DataCamp, https://learn.datacamp.com.
  4. Coursera, https://www.coursera.org.

R Programlama

Yapay zeka ve makine öğrenmesi denilince akla ilk gelen yazılım dillerini Java, C, Python olarak sıralayabiliriz. Bir istatistikçi olarak benim de kullandığım, veri bilimciler tarafından da sıklıkla tercih edilen R Programlama, istatistiksel veri analizi, grafik gösterimi, istatistiki yazılım geliştirme alanlarında kullanılan bir programlama ve yazılım dilidir.
R, doğrusal ve doğrusal olmayan modelleme, klasik istatistiki testler, zaman serileri analizi, sınıflandırma, kümeleme gibi istatistiki teknikler ve grafik çizim teknikleri sunmaktadır. R;

  • Etkili bir veri işleme ve depolama tesisidir.
  • Diziler, özellikle matrisler üzerinde hesaplamalar için bir operatör paketi içerir.
  • Veri analizi için geniş, tutarlı, entegre bir ara araç koleksiyonu içerir.
  • Veri analizi için grafiksel olanaklar ve ekranda veya basılı kopya üzerinde görüntüleme ve koşullu ifadeler, döngüler, kullanıcı tanımlı özyinelemeli işlevler ve girdi ve çıktı olanaklarını içeren iyi geliştirilmiş, basit ve etkili bir programlama dilidir.

R Programın Tarihçesi
Yeni Zelanda Auckland Üniversitesinden Ross Ihaka ve Robert Gentleman tarafından ortaya çıkarılan R, günümüzde de  R Geliştirme Çekirdek Ekibi tarafından geliştirilmektedir. S programlama dilinin  uyarlaması olarak karşımıza çıkar. R Foundation tarafından desteklenen ve GNU Tasarısının parçası olan bir özgür yazılımdır.
R Programlamanın Avantajları

  1. R, gerektiği yerlerde matematiksel semboller ve formüller dahil olmak üzere iyi tasarlanmış yayın kalitesinde grafiklerin üretilebilmesinde kolaylık sağlar.
  2. Açık kaynak kodlu ve ücretsizdir. Veri madenciliği, istatistik gibi konularda 15.000’in üzerinde paket içerir. Aynı zamanda kullanıcıların kendi paketlerini oluşturmalarında veya çok özel araştırma alanlarına ait paketlerle oldukça geliştirilebilirdir.
  3. Çapraz platform olması sayesinde GNU/Linux, Microsoft Windows gibi değişik işletim sistemleri üzerinde çalışabilir.
  4. Microsoft Excel, Microsoft Access, Oracle, MySQL ve SQLite, Hadoop, SAS ve SPSS gibi birçok araç ile entegre şekilde çalışabilir bu sayede data import- export işlemleri kolaylıkla gerçekleştirebilir.
  5. Verinin ekranda ya da basılı bir eserde görüntülenebilmesine olanak veren geniş, grafiksel özellikler sunar.

R programlamanın kullanım alanlarına bakacak olursak; dünya çapında birçok veri bilimci tarafından sağlık, finans, otomotiv gibi alanlarda kullanılır. Örnek olarak Ford Motor Company, iş stratejisini ve gelecekteki tasarımlarını geliştirmelerine yardımcı olan ürün hakkındaki müşteri düşüncelerini analiz etmek için R’ı istatistiksel analizler için kullanır.
R yapay zeka mühendisleri ve veri bilimciler için en iyi programlama dilleri arasında gösterilir. Tahmin, kestirim, sınıflandırma gibi yaklaşımları ve makine öğrenmesi için gerekli algoritmalarını içeren kütüphaneleri(dplyr, magrittr, caTools, caret gibi) bünyesinde barındırır. R programlamadan kısaca bahsettik. Sizler de veri bilimci olma yolunda ilerliyorsanız R programlama dilini kısa zaman içinde öğrenebilir ve makine öğrenmesi problemlerinizde uygulayabilirsiniz. Bir sonraki yazımızda görüşünceye dek hoşçakalınız…

REFERANSLAR
https://www.r-project.org/about.html
https://atacangarip.wordpress.com/2016/10/20/r-dili-tarihcesi-ve-ozellikleri/
https://medium.com/datarunner/r-nedir-4375f53ba1d4
https://www.linkedin.com/pulse/r-yazilimi-datamining-machine-learning-nedir-datalab-tr/
https://www.mediaclick.com.tr/tr/blog/r-programlama-dili-nedi

Featured Image

HTC (Hybrid Task Cascade) Network Architecture

As a result of my recent literature research for image segmentation, I have come across very different segmentation architectures. Before this article, I told you about the architecture of Mask R-CNN. Just like this mask R-CNN architecture, the Cascade Mask R-CNN structure has appeared in the literature. I will try to enlighten you about this with the information I have collected from the original academic documents and research I have read.

Cascade is a classic yet powerful architecture that improves performance in a variety of tasks. However, how to enter sample segmentation with steps remains an open question. A simple combination of Cascade R-CNN and Mask R-CNN provides only limited gains. In exploring a more effective approach, it was found that the key to a successful instance segmentation level is to take full advantage of the mutual relationship between detection and partitioning.
Hybrid Task Cascade for Instance Segmentation proposes a new Hybrid Task Cascade (HTC) framework that differs in two important respects:

  1. Instead of cascading these two tasks separately, it connects them together for common multi-stage processing.
  2. It adopts a fully convoluted branch to provide spatial context, which can help distinguish the rigid foreground from the complex background.

The basic idea is to leverage spatial context to improve the flow of information and further improve accuracy by incorporating steps and multitasking at each stage. In particular, a cascading pipeline is designed for progressive purification. At each stage, both bounding box regression and mask prediction are combined in a multi-tasking person.

Innovations ✨

The main innovation of HTC’s architecture is a cascading framework that connects object detection and segmentation, providing better performance. The information flow is also changed through direct branches between the previous and subsequent mask determinants. Architecture also includes a fully convolutional branch that improves spatial context, which can improve performance by better distinguishing samples from scattered backgrounds.
2017 Winner

Hybrid Task Cascade: Sample Segmentation Framework
  • It combines bounding box regression and mask prediction instead of executing in parallel. 
  • It creates a direct way to strengthen the flow of information between mask branches by feeding the mask features from the previous stage to the existing one.
  • It aims to gain more contextual information by fusing it with box and mask branches by adding an additional branch of semantic segmentation. 
  • In general, these changes in the framework architecture effectively improve the flow of information not only between states but also between tasks.

A comparison of the HTC network’s sample determination approaches with the latest technology products in the COCO dataset in Table 1 can be seen. In addition, the Cascade Mask R-CNN described in Chapter 1 is considered a strong basis for the method used in the article. Compared to Mask R-CNN, the naive cascading baseline brings in 3.5% and 1.2% increases in terms of box AP and mask AP. It is noted that this baseline is higher than PANet, the most advanced method of sample segmentation. HTC is making consistent improvements on different backbones that prove its effectiveness. ResNet-50 provides gains of 1.5%, 1.3% and 1.1%, respectively, for ResNet-101 and ResNeXt-101.
📌 Note: Cascade Mask R-CNN extends Cascade R-CNN to instance segmentation by adding a mask header to the cascade [3].

MS COCO METRICS

The image below shows the results of this segmentation in the COCO dataset.
New
In the results section of the article, the advantages of the HTC model they created over other models are mentioned.

We recommend the hybrid task cascade (HTC), a new graded architecture for Instance Segmentation. It intertwines box and mask branches for common multi-stage processing and uses a semantic partitioning branch to provide spatial context. This framework gradually improves mask estimates and combines complementary features at each stage. The proposed method without bells and whistles achieves a 1.5% improvement over a strong cascade Mask R-CNN baseline in the MS COCO dataset. In particular, our overall system reaches 48.6 masks AP in the test-inquiry dataset and 49.0 mask AP in test-dev.

📌 Finally, in order to understand the changes of variables in the table, I leave you a table of MS COCO metrics as a note.

REFERENCES

  1. Kai Chen, Jiangmiao Pang, Jiaqi Wang, Yu Xiong, Xiaoxiao Li, Shuyang Sun, Wansen Feng, Ziwei Liu, Jianping Shi, Wanli Ouyang, Chen Change Loy, Hybrid Task Cascade for Instance Segmentation, April 2019.
  2. Zhaowei Cai and Nuno Vasconcelos, Cascader-cnn:Delving into high quality object detection, In IEEE Conference on Computer Vision and Pattern Recognition, 2018.
  3. https://paperswithcode.com/method/cascade-mask-r-cnn.
  4. https://cocodataset.org/#home

Yapay İnsan Gözü Tasarlamak: EC-Eye

Göz, en karmaşık biyolojik yapıya sahip organlardan bir tanesi. Bu yapısı sayesinde çok geniş bir görüş açısı sağlamasının yanı sıra hem uzağı hem yakını detaylı bir şekilde işler ve ayrıca çevre, ışık koşullarına göre de inanılmaz bir uyum sağlar. İçinde bulundurduğu sinir ağlarına, katmanlarına, milyonlarca fotoreseptörlere ek olarak bir de küresel şekle sahip olması, onun kopyalanmasını oldukça zorlaştırıyor.
Tüm bu zorluklara rağmen Hong Kong Bilim ve Teknoloji Üniversitesi’nden bilim insanları bu alanda çalışmalarına devam etti ve ışığa duyarlı süperiletken perovskit maddesi ile biyonik bir göz geliştirdiler. “Elektrokimyasal Göz” (EC-Eye) adını verdikleri bu biyonik göz, bir insan gözünü kopyalamayı bırakın çok daha fazlasını yapmak üzere.
 

 
Şu an sahip olduğumuz kameralar aslında görme işlevinin bir kopyası gibi gelebilir. Fakat küçük boyutlar için çözünürlük ve görüş açısı tam olarak insan gözünün özelliklerine sahip değil, daha çok mikroçip gibi çözümler kullanılır. Fakat bunların küresel bir yüzeyde tasarlanması önceden de söylediğimiz gibi o kadar kolay olan bir işlem değil. Peki EC-Eye bunu nasıl yapıyor?
Elektrokimyasal göz, temel olarak 2 parçadan oluşuyor diyebiliriz. Ön tarafında insan irisinin görevini yapan bir mercek bulunmakta. Yine aynı tarafta elektrik yüklü bir sıvı ile doldurulmuş alüminyum bir kabuğa sahiptir. Bu sıvı aslında insan göz yapısında “Vitre” olarak bildiğimiz gözün içini dolduran jel şeklinde biyolojik bir sıvıdır.
 

 
EC-Eye’ın arka kısmında ise oluşturulan elektriksel aktiviteyi işlemek üzere bilgisayara gönderen teller bulunmaktadır. Teması gerçekleştirmek adına da silikon bir göz yuvasına sahiptir. Son olarak, ve en önemlisi, algılamayı gerçekleştiren hassas nanoteller. Bu nanoteller o kadar hassas bir yapıya sahiptir ki yanıt hızları, normal bir insan gözündeki fotoreseptörlerden daha hızlıdır. Nanoteller üzerinde oluşan elektriksel reaksiyonların bilgisayara iletilmesi ile de iletim gerçekleşmiş oluyor. Tabii bu şekilde anlatınca çok kolay bir işlem gibi gözükse de aslında teknolojinin sınırlarını zorlayan bir uygulama. Tüm bu işlemlerin insan gözünü arka planda bırakacak bir güçte ve özellikte çalışması ise daha da merak uyandırıcı. 
Nasıl çalıştığını görmek adına, EC-Eye ve bilgisayar arasında bir arayüz oluşturuldu ve bu arayüz sayesinde EC-Eye’a bazı harfler gösterildi. Çıkan algılama sonucunda daha yüksek çözünürlükte görüntü elde edildiği kanıtlandı. İleriki aşamalar için çok daha kompleks testlerle karşı karşıya gelecek ve geliştirilmesi için çalışmalara devam edilecek.
 

 
Bu biyonik gözün insan gözü yerine geçebilmesi için daha birçok testten geçmesi gerektiği çok açık özellikle her ne kadar küçük bir cihaz gibi görünse de nanotellerin bilgisayara işlenmesi için bağlanması aşaması şu an bir sorun yaratmakta. Söz konusu çok fazla nanotel olunca bunların yerleştirilmesi ve pratik şekilde kullanılması oldukça zor gözüküyor, yani bu biyonik gözlerin ticarileşmesi, herkes tarafından kullanılabilmesi, biraz daha uzun bir zaman alabilir. Ama şimdilik, gelecek için büyük bir umut veriyor. 
İnsan gözünün algılayamadığı şeyleri de yapabileceği bir noktaya gelirse eğer, çok fazla özelliğe sahip bir potansiyelinin olduğu söylenebilir. Bilim kurgu filmlerinde gördüğümüz ve “Bunlar sadece filmlerde olur zaten.” dediğimiz kayıt almak, çok uzağı görmek, gece görüşü, başka dalga boylarında frekansları görüntüleme artık o kadar da ulaşılmaz değil gibi duruyor. Bunlar nasıl telefon kameraları ile bile çok rahat bir şekilde yapılabiliyorsa işin içinde yapay zekanın da olduğu üst düzey teknolojik uygulamaların bunu kolaylıkla yapabileceğini tahmin etmek aslında o kadar da zor değil.
Yapay Zeka her alanda bir parçamız olmaya başladı bile.
 
Kaynakça:

Looking to the Future: Creating an Artificial Eye


https://www.nature.com/articles/s41586-020-2285-x.pdf?origin=ppub
https://tr.euronews.com/2020/05/21/insanlar-ve-robotlar-icin-gelistirilen-biyonik-goz-ilk-testleri-gecti-potansiyelde-s-n-r-y

Featured Image

HTC (Hybrid Task Cascade) Ağ Mimarisi

Son günlerde görüntü segmentasyonu için yaptığım literatür araştırması sonucunda çok farklı segmentasyon mimarileri ile karşılaştım. Bu yazımdan önce sizlere Mask R-CNN mimarisinden bahsetmiştim. Tıpkı bu Mask R-CNN mimarisi gibi Cascade Mask R-CNN yapısı da literatürde karşıma çıktı. Okuduğum orijinal akademik dokümanlardan ve araştırmalarımdan topladığım bilgiler ile sizleri bu konuda aydınlatmaya çalışacağım.

Cascade,çeşitli görevlerde performansı artıran klasik ama güçlü bir mimaridir. Bununla birlikte, örnek segmentasyonuna basamaklar ile nasıl girilir açık bir soru olmaya devam etmektedir. Cascade R-CNN ve Mask R-CNN’ in basit bir kombinasyonu sadece sınırlı kazanç sağlar. Daha etkili bir yaklaşımı keşfederken, başarılı bir örnek bölümleme (instance segmentation) kademesinin anahtarının, algılama ve bölümleme arasındaki karşılıklı ilişkiden tam olarak yararlanmak olduğu görülmüştür.
Hybrid Task Cascade for Instance Segmentation adlı çalışmada iki önemli açıdan farklılık gösteren yeni bir Hybrid Task Cascade (HTC) çerçevesi önerilmektedir:

  1. Bu iki görevi ayrı ayrı basamaklı olarak rafine etmek yerine, bunları ortak çok aşamalı işleme için birbirine bağlar.
  2. Uzamsal bağlam sağlamak için tamamen evrişimli bir dal benimser, bu da sert ön planı karmaşık arka plandan ayırt etmeye yardımcı olabilir. 

Temel fikir, her aşamada basamak ve çoklu görev dahil ederek bilgi akışını iyileştirmek ve doğruluğu daha da artırmak için mekansal bağlamdan yararlanmaktır. Özellikle, ilerici arıtma için basamaklı bir boru hattı tasarlanmıştır. Her aşamada, hem sınırlayıcı kutu regresyonu hem de maske tahmini, çok görevli bir insanda birleştirilir.

Yenilikler ✨

HTC mimarisinin ana yeniliği, nesne algılama ve segmentasyonu birbirine bağlayarak daha iyi performans sağlayan basamaklı bir çerçevedir. Bilgi akışı, önceki ve sonraki maske belirleyicileri arasındaki doğrudan dallar aracılığıyla da değiştirilir. Mimari ayrıca, dağınık arka planlardan örnekleri daha iyi ayırt ederek performansı artırabilen mekansal bağlamı geliştiren tamamen konvolüsyonel bir dal içerir.
2017 Winner

Hybrid Task Cascade (Hibrit Görev Basamağı) : Örnek Segmentasyon Çerçevesi
  • Paralel olarak yürütmek yerine sınırlayıcı kutu regresyonunu ve maske tahminini birleştirir. 
  • Önceki aşamadaki maske özelliklerini mevcut olana besleyerek maske dalları arasındaki bilgi akışını güçlendirmek için doğrudan bir yol oluşturur.
  • Ek bir semantik segmentasyon dalı ekleyerek kutu ve maske dalları ile kaynaştırarak daha fazla bağlamsal bilgi edinmeyi amaçlamaktadır. 
  • Genel olarak, çerçeve mimarisindeki bu değişiklikler, yalnızca aşamalar arasında değil, görevler arasında da bilgi akışını etkili bir şekilde geliştirir.


HTC ağının Tablo 1′ deki COCO veri kümesindeki en son teknoloji ürünleri ile örnek belirleme yaklaşımlarının karşılaştırılması görülmektedir. Ayrıca, Bölüm 1’de açıklanan Cascade Mask R-CNN’i makalede kullanılan yöntemin güçlü bir temeli olarak değerlendirilmektedir. Mask R-CNN ile karşılaştırıldığında, naif basamaklı taban çizgisi, box AP ve mask AP açısından %3.5 ve %1.2’lik bir artış getiriyor. Bu taban çizgisinin, en gelişmiş örnek segmentasyon yöntemi olan PANet ‘ den daha yüksek olduğu belirtilmektedir. HTC, etkinliğini kanıtlayan farklı omurgalarda tutarlı iyileştirmeler gerçekleştiriyor. ResNet-50, ResNet-101 ve ResNeXt-101 için sırasıyla %1.5, %1.3 ve %1.1 kazanç sağlar.
📌 NOT: Cascade Mask R-CNN, kademeye bir maske başlığı ekleyerek Cascade R-CNN’yi örnek segmentasyonuna genişletir [3].
Aşağıda görmüş olduğunuz görsel ise COCO veri setindeki bu segmentasyon sonuçlarını göstermektedir.
New
Makalede sonuç bölümünde ise oluşturdukları HTC modelinin diğer modellere göre üstünlüklerinden bahsedilmektedir.

Örnek bölümleme (Instance Segmentation) için yeni bir kademeli mimari olan Hibrit Görev Kademesini (HTC) öneriyoruz. Ortak bir çok aşamalı işleme için kutu ve maske dallarını iç içe geçirir ve uzamsal bağlam sağlamak için anlamsal bir bölümleme dalı kullanır. Bu çerçeve, maske tahminlerini aşamalı olarak iyileştirir ve her aşamada tamamlayıcı özellikleri bir araya getirir. Çanlar ve ıslıklar olmadan önerilen yöntem, MS COCO veri setinde güçlü bir Cascade Mask R-CNN taban çizgisine göre% 1.5 iyileştirme elde eder. Özellikle, genel sistemimiz test-sorgulama veri setinde 48.6 maske AP’ye ve test-dev’de 49.0 maske AP’ye ulaşır.

📌 Son olarak tablodaki değişkenlerin değişimlerini anlamanız adına sizlere MS COCO metriklerinin tablosunu not olarak bırakıyorum.

REFERANSLAR

  1. Kai Chen, Jiangmiao Pang, Jiaqi Wang, Yu Xiong, Xiaoxiao Li, Shuyang Sun, Wansen Feng, Ziwei Liu, Jianping Shi, Wanli Ouyang, Chen Change Loy, Hybrid Task Cascade for Instance Segmentation, April 2019.
  2. Zhaowei Cai and Nuno Vasconcelos, Cascader-cnn:Delving into high quality object detection, In IEEE Conference on Computer Vision and Pattern Recognition, 2018.
  3. https://paperswithcode.com/method/cascade-mask-r-cnn.
  4. https://cocodataset.org/#home

Film "Her" Üzerinden İnsan-Makine Etkileşimine Bir Yaklaşım

7 yıl önce, Spike Jonze yönetmenliğinde, özünde klasik bir romantizm içermesine rağmen çok da klasik olmayan bir film yayınlandı: Her. “Her” izlerken, oradaki evrenin teknoloji ve kurulan düzen bakımından günümüzden uzak olduğunu, hatta ütopya sayılabileceğini görüyoruz. Yine de o kadar uzak olduğunu söyleyebilir miyiz? Gelecekte bizlerin makinelerle etkileşimi nasıl şekillenecek?

The Movie “Her”: An Approach to Human-Intelligent Machine Interactions

Seven years ago, under the direction of Spike Jonze, a not-so-classic movie was released, although it contains a classic romance at its core: Her. As in all romantic movies, the girl saves the man from the depressive process and leaves the man in solitude when their full relationship reaches top speed. Despite this classic script, it is the most talked-about and still analyzed film of the year it was released.