💰⛏نتیجه ی فروش بیل و کلنگ(GPUs) در عصر استخراج طلا(DATA)
💸💵کارمندانی که ۵ سال پیش به شرکت انویدیا پیوسته بودند، میلیونر شده اند!
...
😊بحران عدم وجود انگیزه ی کارکنان، برای ادامه راه و ماندن در شرکت انویدیا
هریک از آنها با ثروت و تجربه ای که اندوخته اند، امروز توانایی راه اندازی کسب و کار خود را دارند...
#Nvidia
#Data
#AI
#ML
💸💵کارمندانی که ۵ سال پیش به شرکت انویدیا پیوسته بودند، میلیونر شده اند!
...
😊بحران عدم وجود انگیزه ی کارکنان، برای ادامه راه و ماندن در شرکت انویدیا
هریک از آنها با ثروت و تجربه ای که اندوخته اند، امروز توانایی راه اندازی کسب و کار خود را دارند...
#Nvidia
#Data
#AI
#ML
Data Engineering - Kafka.pdf
4 MB
مهندسی داده: مفاهیم کافکا به زبان ساده
#کافکا
#Data_Engineering
#data
#Kafka
https://t.me/toobabigdatascience
#کافکا
#Data_Engineering
#data
#Kafka
https://t.me/toobabigdatascience
🪩 پیشبینی رشد بازار هوش مصنوعی از ۲۰۲۴ تا ۲۰۳۲
💵💸بازار هوش مصنوعی در سالهای آینده با سرعتی خیرهکننده رشد خواهد کرد. طبق پیشبینیها، این بازار از ۶۳۸ میلیارد دلار در سال ۲۰۲۴ به ۲۵۷۵ میلیارد دلار در سال ۲۰۳۲ خواهد رسید.
ما، در کجای این بازار ایستاده ایم؟
#AI
#هوش_مصنوعی
#آینده_فناوری
#رشد_اقتصادی
🗳https://t.me/toobabigdatascience
💵💸بازار هوش مصنوعی در سالهای آینده با سرعتی خیرهکننده رشد خواهد کرد. طبق پیشبینیها، این بازار از ۶۳۸ میلیارد دلار در سال ۲۰۲۴ به ۲۵۷۵ میلیارد دلار در سال ۲۰۳۲ خواهد رسید.
ما، در کجای این بازار ایستاده ایم؟
#AI
#هوش_مصنوعی
#آینده_فناوری
#رشد_اقتصادی
🗳https://t.me/toobabigdatascience
⁉️چند درصد از مقالات توسط ChatGPT نوشته یا ویرایش میشوند؟
بر اساس پژوهشی که فعلا به صورت پیش مقاله در دسترس است، حداقل ۱۰ درصد از خلاصه مقالههای #پابمد که در ۲۰۲۴ منتشر شده، به کمک ابزارهای هوش مصنوعی مدلهای زبانی بزرگ (#Large_Language_Model یا #LLM) مثل ChatGPT نوشته یا ویرایش شدهاند.
🔆ظاهرا ChatGPT به استفاده از کلماتی مثل delve، crucial و intricate علاقه دارد!
❗️ در این پژوهش، ۱۴ میلیون خلاصه مقالهی پابمد از سالهای ۲۰۱۰ تا ۲۰۲۴ با هدف استفاده از کلمات اضافی مورد بررسی قرار گرفته تا افزاش ناگهانی در کلمات جدید مشخص شود.
برای مثال کلمه Delves در ۲۰۲۴، بیست و پنج برابر بیشتر استفاده شده است. همین طور Showcasing و underscores، نه برابر بیشتر استفاده شدهاند و …
📊برای مقایسه در سالهای قبل فقط کلمات مرتبط با محتوا مثل ابولا در ۲۰۱۵ و زیکا در ۲۰۱۷ و کلماتی مثل ماسک در ۲۰۲۱، فراونی بیشتری پیدا کرده بودهاند. اما در ۲۰۲۴ موارد متفاوت بودهاند:
در ۲۰۲۴ این کلمات جدید اضافی تقریبا هیچ یک، مرتبط با محتوا نبوده و برعکس همه مرتبط با استایل بودهاند. به این معنی که در مقالات در زمینههای مختلف استفاده شدهاند. همین طور اکثر آنها اسم نبوده بلکه فعل و یا صفت بودهاند.
بر اساس بررسی لیستی از این کلمات، مشخص شده است که تعداد خلاصه مقالات پابمد در ۲۰۲۴ که از یکی از این کلمات استفاده کردهاند، تقریبا ده درصد بیشتر شده است. یا به عبارت دیگر ده درصد از خلاصه مقالات پامبد به کمک ChatGPT نوشته شده است.
برای این موضوع آنالیزهای زیرگروهی متعددی هم انجام شده است: برای مثال این درصد برای ایران (بین ۱۰ تا ۱۵؟)، برای چین و کره جنوبی بیش از ۱۵ و برای مقالات انتشارات Frontiers و MDPI تقریبا ۱۷ بوده است.
بر اساس پژوهشی که فعلا به صورت پیش مقاله در دسترس است، حداقل ۱۰ درصد از خلاصه مقالههای #پابمد که در ۲۰۲۴ منتشر شده، به کمک ابزارهای هوش مصنوعی مدلهای زبانی بزرگ (#Large_Language_Model یا #LLM) مثل ChatGPT نوشته یا ویرایش شدهاند.
🔆ظاهرا ChatGPT به استفاده از کلماتی مثل delve، crucial و intricate علاقه دارد!
❗️ در این پژوهش، ۱۴ میلیون خلاصه مقالهی پابمد از سالهای ۲۰۱۰ تا ۲۰۲۴ با هدف استفاده از کلمات اضافی مورد بررسی قرار گرفته تا افزاش ناگهانی در کلمات جدید مشخص شود.
برای مثال کلمه Delves در ۲۰۲۴، بیست و پنج برابر بیشتر استفاده شده است. همین طور Showcasing و underscores، نه برابر بیشتر استفاده شدهاند و …
📊برای مقایسه در سالهای قبل فقط کلمات مرتبط با محتوا مثل ابولا در ۲۰۱۵ و زیکا در ۲۰۱۷ و کلماتی مثل ماسک در ۲۰۲۱، فراونی بیشتری پیدا کرده بودهاند. اما در ۲۰۲۴ موارد متفاوت بودهاند:
در ۲۰۲۴ این کلمات جدید اضافی تقریبا هیچ یک، مرتبط با محتوا نبوده و برعکس همه مرتبط با استایل بودهاند. به این معنی که در مقالات در زمینههای مختلف استفاده شدهاند. همین طور اکثر آنها اسم نبوده بلکه فعل و یا صفت بودهاند.
بر اساس بررسی لیستی از این کلمات، مشخص شده است که تعداد خلاصه مقالات پابمد در ۲۰۲۴ که از یکی از این کلمات استفاده کردهاند، تقریبا ده درصد بیشتر شده است. یا به عبارت دیگر ده درصد از خلاصه مقالات پامبد به کمک ChatGPT نوشته شده است.
برای این موضوع آنالیزهای زیرگروهی متعددی هم انجام شده است: برای مثال این درصد برای ایران (بین ۱۰ تا ۱۵؟)، برای چین و کره جنوبی بیش از ۱۵ و برای مقالات انتشارات Frontiers و MDPI تقریبا ۱۷ بوده است.
Media is too big
VIEW IN TELEGRAM
🖤فرا رسیدن ماه محرم، ماه عزای آل الله و ایام شهادت سیدالشهدا و یاران باوفایش را خدمت همه فرهیختگان و همراهان کانال تسلیت و تعزیت عرض می کنیم.
🏴السلام علیک یا ابا عبدالله و علی الارواح التی حلّت بفنائک
https://t.me/toobabigdatascience
🏴السلام علیک یا ابا عبدالله و علی الارواح التی حلّت بفنائک
https://t.me/toobabigdatascience
فقط یک بسته ی پیشنهادی ست
برای انتخاب الگوریتم مناسب ِ لرنینگ، بسته به نوع مساله و داده های شما.
در عمل، همواره چنین نیست
نقش ابتکار و ترکیب، را نمی توان نادیده گرفت!
🪩https://t.me/toobabigdatascience
برای انتخاب الگوریتم مناسب ِ لرنینگ، بسته به نوع مساله و داده های شما.
در عمل، همواره چنین نیست
نقش ابتکار و ترکیب، را نمی توان نادیده گرفت!
🪩https://t.me/toobabigdatascience
🤖طعم تحریم روی فنآوري های هوش مصنوعی
👁🗨شرکت OpenAI از دو هفته پیش اعلام کرده بود که از روز نهم ژوئیه، برابر با نوزدهم تیر ماه، محدودیتهای دسترسی کاربران مستقر در کشورهای چین، روسیه و ایران به این چتبات و API یا رابط برنامه کاربردی این شرکت را گستردهتر میکند.
آیا دسترسی ها بطور کامل مسدود خواهد شد؟
🪩https://t.me/toobabigdatascience
👁🗨شرکت OpenAI از دو هفته پیش اعلام کرده بود که از روز نهم ژوئیه، برابر با نوزدهم تیر ماه، محدودیتهای دسترسی کاربران مستقر در کشورهای چین، روسیه و ایران به این چتبات و API یا رابط برنامه کاربردی این شرکت را گستردهتر میکند.
آیا دسترسی ها بطور کامل مسدود خواهد شد؟
🪩https://t.me/toobabigdatascience
نخستین همایش ملی هوش مصنوعی در آموزش و یادگیری
سایت همایش: aiedu.atu.ac.ir
🪩https://t.me/toobabigdatascience
سایت همایش: aiedu.atu.ac.ir
🪩https://t.me/toobabigdatascience
هوش مصنوعی مولد.pdf
3.6 MB
انتشارات مرکز پژوهش های مجلس منتشر کرد :
هوش مصنوعی مولد : چالش ها و الزامات توسعه و پیاده سازی
هوش مصنوعی مولد : چالش ها و الزامات توسعه و پیاده سازی
ML Algorithms1⃣
Linear Regression :
Linear regression is a statistical method used to model the relationship between a dependent variable (target) and one or more independent variables (features). The goal is to find the linear equation that best predicts the target variable from the feature variables.
Linear Regression :
Linear regression is a statistical method used to model the relationship between a dependent variable (target) and one or more independent variables (features). The goal is to find the linear equation that best predicts the target variable from the feature variables.
متخصصان علم داده ها data scientists
ML Algorithms1⃣ Linear Regression : Linear regression is a statistical method used to model the relationship between a dependent variable (target) and one or more independent variables (features). The goal is to find the linear equation that best predicts…
Ex:
Suppose we have a dataset with house prices and their corresponding size (in square feet) using Python
# Import necessary libraries
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt
# Example data
data = {
'Size': [1500, 1600, 1700, 1800, 1900, 2000, 2100, 2200, 2300, 2400],
'Price': [300000, 320000, 340000, 360000, 380000, 400000, 420000, 440000, 460000, 480000]
}
df = pd.DataFrame(data)
# Independent variable (feature) and dependent variable (target)
X = df[['Size']]
y = df['Price']
# Splitting the data into training and testing sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# Creating and training the linear regression model
model = LinearRegression()
model.fit(X_train, y_train)
# Making predictions
y_pred = model.predict(X_test)
# Evaluating the model
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print(f"Mean Squared Error: {mse}")
print(f"R-squared: {r2}")
# Plotting the results
plt.scatter(X, y, color='blue') # Original data points
plt.plot(X_test, y_pred, color='red', linewidth=2) # Regression line
plt.xlabel('Size (sq ft)')
plt.ylabel('Price ($)')
plt.title('Linear Regression: House Prices vs Size')
plt.show()
Suppose we have a dataset with house prices and their corresponding size (in square feet) using Python
# Import necessary libraries
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt
# Example data
data = {
'Size': [1500, 1600, 1700, 1800, 1900, 2000, 2100, 2200, 2300, 2400],
'Price': [300000, 320000, 340000, 360000, 380000, 400000, 420000, 440000, 460000, 480000]
}
df = pd.DataFrame(data)
# Independent variable (feature) and dependent variable (target)
X = df[['Size']]
y = df['Price']
# Splitting the data into training and testing sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# Creating and training the linear regression model
model = LinearRegression()
model.fit(X_train, y_train)
# Making predictions
y_pred = model.predict(X_test)
# Evaluating the model
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print(f"Mean Squared Error: {mse}")
print(f"R-squared: {r2}")
# Plotting the results
plt.scatter(X, y, color='blue') # Original data points
plt.plot(X_test, y_pred, color='red', linewidth=2) # Regression line
plt.xlabel('Size (sq ft)')
plt.ylabel('Price ($)')
plt.title('Linear Regression: House Prices vs Size')
plt.show()
ML Algorithms2⃣
Logistic Regression
Logistic regression is used for binary classification problems, where the outcome is a categorical variable with two possible outcomes (e.g., 0 or 1, true or false). Instead of predicting a continuous value like linear regression, logistic regression predicts the probability of a specific class.
The logistic regression model uses the logistic function (also known as the sigmoid function) to map predicted values to probabilities.
Logistic Regression
Logistic regression is used for binary classification problems, where the outcome is a categorical variable with two possible outcomes (e.g., 0 or 1, true or false). Instead of predicting a continuous value like linear regression, logistic regression predicts the probability of a specific class.
The logistic regression model uses the logistic function (also known as the sigmoid function) to map predicted values to probabilities.
متخصصان علم داده ها data scientists
ML Algorithms2⃣ Logistic Regression Logistic regression is used for binary classification problems, where the outcome is a categorical variable with two possible outcomes (e.g., 0 or 1, true or false). Instead of predicting a continuous value like linear…
Ex: Suppose we have a dataset that records whether a student has passed an exam based on the number of hours they studied using Python:
# Import necessary libraries
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix, classification_report, roc_auc_score, roc_curve
import matplotlib.pyplot as plt
# Example data
data = {
'Hours_Studied': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],
'Passed': [0, 0, 0, 0, 1, 1, 1, 1, 1, 1]
}
df = pd.DataFrame(data)
# Independent variable (feature) and dependent variable (target)
X = df[['Hours_Studied']]
y = df['Passed']
# Splitting the data into training and testing sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# Creating and training the logistic regression model
model = LogisticRegression()
model.fit(X_train, y_train)
# Making predictions
y_pred = model.predict(X_test)
y_pred_prob = model.predict_proba(X_test)[:, 1]
# Evaluating the model
conf_matrix = confusion_matrix(y_test, y_pred)
class_report = classification_report(y_test, y_pred)
roc_auc = roc_auc_score(y_test, y_pred_prob)
print(f"Confusion Matrix:\n{conf_matrix}")
print(f"Classification Report:\n{class_report}")
print(f"ROC-AUC: {roc_auc}")
# Plotting the ROC curve
fpr, tpr, thresholds = roc_curve(y_test, y_pred_prob)
plt.plot(fpr, tpr, label='Logistic Regression (area = %0.2f)' % roc_auc)
plt.plot([0, 1], [0, 1], 'k--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('Receiver Operating Characteristic')
plt.legend(loc="lower right")
plt.show()
🌲ML ALGORITHMS3⃣ Decision Trees :
Decision trees are a non-parametric supervised learning method used for both classification and regression tasks. They model decisions and their possible consequences in a tree-like structure, where internal nodes represent tests on features, branches represent the outcome of the test, and leaf nodes represent the final prediction (class label or value).
For classification, decision trees use measures like Gini impurity or entropy to split the data:
- Gini Impurity: Measures the likelihood of an incorrect classification of a randomly chosen element.
- Entropy (Information Gain): Measures the amount of uncertainty or impurity in the data.
For regression, decision trees minimize the variance (mean squared error) in the splits.
Decision trees are a non-parametric supervised learning method used for both classification and regression tasks. They model decisions and their possible consequences in a tree-like structure, where internal nodes represent tests on features, branches represent the outcome of the test, and leaf nodes represent the final prediction (class label or value).
For classification, decision trees use measures like Gini impurity or entropy to split the data:
- Gini Impurity: Measures the likelihood of an incorrect classification of a randomly chosen element.
- Entropy (Information Gain): Measures the amount of uncertainty or impurity in the data.
For regression, decision trees minimize the variance (mean squared error) in the splits.