just another foolish blog

19.7.14

Yıllardan sonra blogspot.

5:50 AM Posted by Eren Yağdıran No comments
Tekrar kısa kısa blog tutmaya karar verdim. En son ne zaman blog tutmuşsun desen , yıllar oldu nerdeyse :) O yıllarda ben çok değiştim.Saçlarım döküldü , birim zamanda minimum 2x yaşlandım ve gözlerim de açıldı diyebilirim.Bu arada bu ülkeye olan inancımda oldukça azaldı , her gün gelişen bin bir türlü...

15.2.14

Freedom

4:27 AM Posted by Eren Yağdıran No comments
Finally , it's time to leave...

16.11.13

undefined reference to `yywrap' compiling PAM

2:22 PM Posted by Eren Yağdıran , , , , , , , , No comments
If you get this error while compiling pam modules , be sure you have flex package as installed.. I was working on debian. /home/eren/PAM/Linux-PAM-1.1.1/conf/pam_conv1/pam_conv_l.c:871: undefined reference to `yywrap' collect2: error: ld returned 1 exit status make[4]: *** [pam_conv1] Error 1 make[4]: Leaving directory `/home/eren/PAM/Linux-PAM-1.1.1/conf/pam_conv1' make[3]: *** [all] Error 2 make[3]:...

14.11.13

24.8.13

[arch linux] Systemd-journald yüksek cpu kullanımı.

11:44 AM Posted by Eren Yağdıran , , , , , , , , , No comments
Eğer böyle bir sorunla karşılaşır iseniz , ekrana kafa atmadan önce dediklerimi yapın journalctl --disk-usage yapıp , file systemde yaratılan journalların büyüklüğüne bakın.Eğer gb'larca değilse bu sayfayı kapatın. Eğer disk-usage çok fazlaysa , /etc/systemd/journald.conf dosyasından  SystemMaxUse=16M  ForwardToSyslog=no olarak değiştirin. birde initramfs'de shutdown hook olarak ekleyin...

25.10.12

Even Tree problem & my solution

5:54 PM Posted by Eren Yağdıran No comments
You are given a tree (a simple connected graph with no cycles).You have to remove as many edges from the tree as possible to obtain a forest with the condition that : Each connected component of the forest contains even number of vertices Your task is to calculate the number of removed...

18.10.12

Lets scape Google

8:34 AM Posted by Eren Yağdıran No comments
i just need to have couple of urls in google results so instead of writing a pure http client for spoofing google , i write some junk of js files to fetch urls from google , without getting banned :) I used firefox and greasemonkey plugin. Basically , what this script does that ; Wait until google ajax request is loaded parse the body content to obtaion urls by using regular expressions after...