کدام روش برای پاک کردن داده‌های تکراری مناسب‌تر است؟ "CTE" vs "GROUP BY"
200, OK
https://stackoverflow.com/questions/64658653/which-way-is-faster-to-delete-duplicate-rows-in-sql icon

اگر بخواهیم داده‌های زیادی که به صورت تکراری وارد شده‌اند را پاک کنیم، مبحث performance بسیار مهم خواهد بود. چرا که هنگام پاک کردن داده، احتمال بروز deadlock بسیار زیاد است و زمان کمتر به معنی احتمال خطای کمتر است.

شما برای پاک کردن داده‌های تکراری از کدام روش استفاده می‌کنید؟ کوئری‌های روان و خوانا به سبک "GROUP BY" یا کوئری‌های بازگشتی استاندارد به سبک "CTE"؟ 


کدام روش برای پاک کردن داده‌های تکراری مناسب‌تر است؟ "CTE" vs "GROUP BY"
اگه هنوز براتون سواله که MongoDb یا مثلا SqlServer ...
200, OK
https://virgool.io/@mjebrahimi/%D8%A7%DA%AF%D9%87-%D9%87%D9%86%D9%88%D8%B2-%D8%A8%D8%B1%D8%A7%D8%AA%D9%88%D9%86-%D8%B3%D9%88%D8%A7%D9%84%D9%87-%DA%A9%D9%87-mongodb-%DB%8C%D8%A7-%D9%85%D8%AB%D9%84%D8%A7-sqlserver-qoife05ozzae icon

توی این پست میخوام به صورت علمی به مقایسه MongoDb و SqlServer نگاه کنیم و ببینیم که چرا و کجا‌ها Mongo انتخاب بهتری هست و کجا‌ها نیست. 

اگه هنوز براتون سواله که MongoDb یا مثلا SqlServer ...
ویژگی های SQL Server 2019 را در این ویدئو تماشا کنید!
200, OK
https://www.youtube.com/watch?v=uZRXlkBBRnM icon

In this video, you will get to experience bringing SQL and Spark together as a unified data platform running on Kubernetes and learn how:

• Data virtualization integrates data from disparate sources, locations and formats, without replicating or moving the data, to create a single "virtual" data layer

• Data Lake - SQL 2019 provides SQL and Spark query capabilities over a scalable storage, across relational and big data

• Data Mart provides an ability to scale out storage for super-fast performance over big data or data from other external sources 

ویژگی های SQL Server 2019 را در این ویدئو تماشا کنید!